En una Europa enfrentada a los retos y riesgos de una IA cada vez más poderosa, el Reglamento (UE) 2024/1689 emerge como una sólida respuesta para establecer orden y seguridad. Este reglamento, cuidadosamente estructurado en 13 capítulos, se erige con el objetivo de mejorar el funcionamiento del mercado interior, promover una inteligencia artificial centrada en el ser humano y, sobre todo, fiable. La Comisión Europea, con el aval del Parlamento y el Consejo de la Unión Europea, ha instaurado un marco jurídico uniforme que garantice la seguridad, la protección de los derechos fundamentales y, al mismo tiempo, respalde la innovación.

El Reglamento entra en vigor el 1 de agosto de 2024 y será aplicable a partir del 2 de agosto de 2026

Ya en diciembre pasado nos hacíamos eco en este humilde blog de la próxima publicación del Reglamento que nos ocupa. Hoy, tras la publicación del reglamento, persisten las preguntas que me hacía meses atrás: ¿Cómo afectará esto a la innovación en el ámbito de la inteligencia artificial? ¿Se logrará un equilibrio adecuado entre la seguridad y la promoción de la creatividad en este campo tan dinámico? ¿Se innova o investiga en la UE sobre inteligencia artificial o solo se regula? ¿Se quedará Europa atrasada en relación con el resto del mundo por una excesiva regulación? Y hoy aún no tienen respuesta.

El corazón del Reglamento: ámbito de aplicación y normas

El reglamento extiende su ámbito de protección sobre todos los proveedores y usuarios de sistemas de IA dentro de la Unión Europea, sin distinción de su ubicación. Se enfoca especialmente en los sistemas de IA de alto riesgo, aquellos que operan en sectores críticos como la salud, la seguridad pública y el empleo, imponiendo estrictos requisitos para su desarrollo y uso.

La lista de prácticas prohibidas es un testimonio de la determinación de Europa por preservar la dignidad humana y la equidad: manipulación cognitiva, puntuación social y vigilancia predictiva basada en perfiles biométricos están entre las vetadas. Estas medidas buscan prevenir un futuro en el que la IA se convierta en herramienta de control y explotación.

Capítulos clave y principios éticos

Cada uno de los 13 capítulos del reglamento es una pieza en el mosaico de un futuro controlado y ético para la inteligencia artificial. Desde las disposiciones generales que definen el alcance y los principios del reglamento, hasta las obligaciones de transparencia y los requisitos para los sistemas de alto riesgo, el documento es una hoja de ruta meticulosamente trazada.

Los sistemas de IA de alto riesgo deben cumplir con rigurosos requisitos de gestión de riesgos, gobernanza de datos, transparencia y supervisión humana. La creación de la Oficina de IA y el Consejo Europeo de Inteligencia Artificial garantiza la gobernanza y supervisión del cumplimiento, mientras que la base de datos de la UE para sistemas de IA de alto riesgo proporciona una herramienta esencial para la vigilancia del mercado.

En este reglamento, la IA encuentra su guía, y la humanidad, su defensa

Capítulos

Capítulo I: Disposiciones generales Este capítulo define el ámbito de aplicación del reglamento, su objetivo y las definiciones clave, como «sistema de IA», «riesgo sistémico», y «uso general». Establece la base legal para la regulación de los sistemas de IA en la UE y define los principios de diseño y uso responsable.

Capítulo II: Prácticas de IA prohibidas Aquí se enumeran las prácticas prohibidas, como el uso de técnicas subliminales para manipular el comportamiento, la explotación de vulnerabilidades debido a edad o discapacidad, y la puntuación social que evalúa o clasifica a las personas según su comportamiento social. Estas prohibiciones buscan proteger los derechos fundamentales y evitar el uso abusivo de la IA.

Capítulo III: Requisitos para los sistemas de IA de alto riesgo Este capítulo establece los requisitos específicos que deben cumplir los sistemas de IA considerados de alto riesgo, como la gestión de riesgos, la gobernanza de datos, la transparencia, la supervisión humana, y la ciberseguridad. También aborda las evaluaciones de conformidad y las obligaciones de los operadores económicos, incluyendo proveedores, importadores y distribuidores.

Capítulo IV: Obligaciones de transparencia Se detallan las obligaciones de transparencia para los proveedores y responsables del despliegue de determinados sistemas de IA. Esto incluye la obligación de informar a las personas cuando interactúan con sistemas de IA y marcar claramente el contenido generado artificialmente.

Capítulo V: Modelos de IA de uso general Este capítulo introduce las reglas de clasificación para los modelos de IA de uso general y establece las condiciones bajo las cuales un modelo puede ser considerado de riesgo sistémico. También detalla los procedimientos para la evaluación de conformidad y las medidas que deben tomarse para mitigar los riesgos asociados.

Capítulo VI: Evaluaciones de conformidad Aquí se establecen las disposiciones para la evaluación de la conformidad de los sistemas de IA de alto riesgo, incluyendo las responsabilidades de los organismos notificados y los procesos de vigilancia post-comercialización. Las normas buscan garantizar que los sistemas de IA cumplan con los requisitos legales antes de ser puestos en el mercado.

Capítulo VII: Gobernanza Este capítulo describe la estructura y funciones de la Oficina de IA y el Consejo Europeo de Inteligencia Artificial, que son los órganos encargados de la gobernanza y supervisión del cumplimiento del reglamento. La Oficina de IA tiene el papel de desarrollar capacidades y coordinar acciones a nivel de la UE, mientras que el Consejo de IA proporciona una plataforma de cooperación entre Estados miembros.

Capítulo VIII: Base de datos de la UE para sistemas de IA de alto riesgo Se establece una base de datos de la UE que registrará los sistemas de IA de alto riesgo. Esta base de datos es esencial para la vigilancia del mercado y la trazabilidad de los sistemas de IA, facilitando el control y la evaluación de los riesgos asociados.

Capítulo IX: Evaluación y vigilancia del mercado Este capítulo detalla las responsabilidades de los Estados miembros para garantizar la correcta vigilancia del mercado, incluyendo la coordinación entre las autoridades de vigilancia del mercado y otras autoridades nacionales. También establece la necesidad de contar con recursos técnicos, financieros y humanos adecuados para estas tareas.

Capítulo X: Códigos de conducta y directrices Aquí se fomentan los códigos de conducta voluntarios para la aplicación de los requisitos específicos del reglamento a los sistemas de IA que no sean de alto riesgo. Estos códigos buscan promover buenas prácticas y la adopción de estándares éticos en el desarrollo y uso de la IA.

Capítulo XI: Delegación de poderes y procedimiento de comité Este capítulo otorga a la Comisión Europea poderes para adoptar actos delegados y de ejecución necesarios para la implementación del reglamento. Establece los procedimientos para la adopción de estos actos y las condiciones bajo las cuales se pueden revocar dichos poderes.

Capítulo XII: Sanciones Se establecen las sanciones aplicables a las infracciones del reglamento, que pueden incluir multas significativas y otras medidas de ejecución. Las sanciones están diseñadas para ser efectivas, proporcionadas y disuasorias, teniendo en cuenta los intereses de las pymes y su viabilidad económica.

Capítulo XIII: Disposiciones finales El último capítulo aborda las disposiciones finales y transitorias, así como las modificaciones a otros reglamentos y directivas de la UE para asegurar la coherencia y la aplicación uniforme de las normas de IA en toda la Unión Europea.

Transparencia y gobernanza

La transparencia es un pilar fundamental: los usuarios deben ser informados cuando interactúan con IA y todos los contenidos generados artificialmente deben ser claramente marcados. Las evaluaciones de conformidad aseguran que los sistemas cumplan con los estándares antes de su despliegue.

El establecimiento de la Oficina de IA y el Consejo Europeo de Inteligencia Artificial es una clara señal de la UE de que la gobernanza y la supervisión son esenciales. Estos organismos coordinarán las acciones a nivel europeo, desarrollarán capacidades y proporcionarán apoyo técnico a los Estados miembros.

Sanciones y entrada en vigor

Las sanciones por infracciones son severas, diseñadas para ser disuasorias y efectivas, teniendo en cuenta la viabilidad económica de las pequeñas y medianas empresas. Las infracciones pueden llevar a multas significativas basadas en el volumen de negocios anual de las empresas infractoras.

El Reglamento entra en vigor el 1 de agosto de 2024, a los veinte días de su publicación en el Diario Oficial de la Unión Europea y será aplicable a partir del 2 de agosto de 2026. No obstante, los capítulos I y II serán aplicables a partir del 2 de febrero de 2025, el capítulo III, sección 4, el capítulo V, el capítulo VII y el capítulo XII y el artículo 78 serán aplicables a partir del 2 de agosto de 2025, a excepción del artículo 101, y el artículo 6, apartado 1, y las obligaciones correspondientes del presente Reglamento serán aplicables a partir del 2 de agosto de 2027.

Un futuro de equilibrio y seguridad

El Reglamento (UE) 2024/1689 no es solo un conjunto de normas, sino una declaración de principios en la era de la inteligencia artificial. Europa, consciente de los peligros y las oportunidades que la IA presenta, ha dado un paso decisivo para asegurar que esta tecnología sea desarrollada y utilizada en consonancia con los valores fundamentales de la Unión: la dignidad humana, la libertad, la igualdad, la democracia y el Estado de Derecho. En este reglamento, la IA encuentra su guía, y la humanidad, su defensa.

Artículo anteriorDescubriendo el Infierno de Carmen Mola: Una travesía literaria entre suripantas y revolución
Artículo siguienteLa batalla de las Navas de Tolosa y el nuevo libro de Francisco García Fitz: Un hito histórico reexaminado
Enrique Pampliega
Desde hace más de 30 años ha estado ligado y promoviendo actividades relacionando la geología y geociencias con los recursos electrónicos, internet y las redes sociales y científicas. Jefe de administración del Ilustre Colegio Oficial de Geólogos (ICOG) desde el año 1990. En 1991-1996 Relaciones públicas y posteriormente responsable de marketing de la revista Tierra y Tecnología del ICOG. En 1993-1996 dirigió la publicación “El Geólogo” y en 1997 fundó “El Geólogo Electrónico”. Coordinador de las ediciones I a III del GEA-CD (recopilación y difusión de software para docentes y profesionales de las ciencias de la tierra y el medio ambiente en formato CD-ROM) entre los años 1996 a 1998. Colabora con la ONG Geólogos del Mundo creando su intranet y poniendo en marcha su página web institucional. Desde el año 2000 es responsable de calidad del ICOG (ISO 9001). Ha sido ponente en distintos eventos organizados por Unión Profesional y Unión Interprofesional de la Comunidad de Madrid, sobre la calidad aplicada al sector colegial. Asimismo, ha impartido charlas sobre búsqueda de empleo y redes sociales en el ICOG, Unión Profesional y Universidad Complutense. En 2005 implanta el visado electrónico de proyectos en el ICOG. En el ámbito de las webs y redes científicas, es Community manager del ICOG. Webmaster de la revista Tierra y Tecnología, de la página institucional del ICOG, de la Escuela de Geología Profesional, de la Red Española de Planetología y Astrobiología y de la International Association for Geoethics. Delegado de protección de datos del ICOG desde el año 2018. Experto en digitalización del sector de colegios profesionales ha sido ponente en el taller virtual sobre la "Transformación Digital del Sistema Colegial", organizado por Unión Profesional y Wolters Kluwer en 2020. Ha sido distinguido como Geólogo de Honor por la Asamblea General del ICOG el 15 de abril de 2023. En 2003 crea el “Blog de epampliega” un espacio personal que pasaría en 2008 a llamarse “Un Mundo Complejo” donde trata temas de: economía, redes sociales, innovación, sociedad, etc.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí