Los Estados y el Parlamento Europeo han alcanzado un acuerdo provisional en las primeras horas del sábado 9 de diciembre, tras tres días de negociaciones intensas. Este texto final deberá recibir la ratificación de ambas partes antes de su entrada en vigor, estimada para finales de 2026, marcando un hito histórico en la regulación de la Inteligencia Artificial (IA). Esta legislación establece categorías y requisitos estrictos para asegurar un desarrollo responsable y seguro de la IA.
La presidenta de la Comisión Europea, Ursula von der Leyen, destaca que la inteligencia artificial ya está transformando la vida cotidiana y enfatiza la importancia de un enfoque sensato y generalizado. La Ley de IA de la UE se posiciona como el primer marco jurídico global en este ámbito, marcando un hito histórico al llevar los valores europeos a una nueva era.
En realidad no es una Ley, es un reglamento de aplicación directa para todos los países de la UE
El planteamiento europeo sobre la inteligencia artificial se basa en la evaluación de riesgos, categorizando los sistemas en función de su nivel de riesgo. La categoría de riesgo mínimo abarca la mayoría de los sistemas de inteligencia artificial inofensivos, como los sistemas de recomendación, sin imponer restricciones obligatorias, aunque las empresas pueden optar por suscribir códigos de conducta voluntarios. Los sistemas de alto riesgo, como infraestructuras críticas, productos sanitarios y sistemas de identificación biométrica, estarán sujetos a requisitos estrictos para garantizar su seguridad y cumplimiento. Se prohíben los sistemas de riesgo inadmisible que amenacen los derechos fundamentales de las personas.
Además, se aborda el riesgo específico de transparencia al requerir etiquetado claro en sistemas como robots conversacionales y sistemas de reconocimiento de emociones. Se impondrán multas a las empresas que no cumplan con las normas, con montos proporcionados según la gravedad de la infracción. Para fomentar la transparencia en modelos de inteligencia artificial de uso general, se introducen obligaciones adicionales relacionadas con la gestión de riesgos, la evaluación de modelos y la emulación de adversarios.
La gobernanza se divide entre autoridades nacionales de vigilancia del mercado y la nueva Oficina Europea de Inteligencia Artificial, que coordinará a nivel europeo y aplicará normas vinculantes. Se destaca la participación de un grupo científico de expertos independientes para emitir alertas sobre riesgos sistémicos en modelos de finalidad general.
El acuerdo político está sujeto a la aprobación formal del Parlamento Europeo y del Consejo y entraría en vigor 20 días después de su publicación en el Diario Oficial. La Ley de IA sería aplicable dos años después, con excepciones para prohibiciones (seis meses) y normas sobre inteligencia artificial de finalidad general (doce meses).
La UE establece estándares globales al ser el primer marco jurídico integral en inteligencia artificial, promoviendo la transparencia, la innovación y la confianza en el uso de esta tecnología a nivel mundial
Se anuncia un Pacto sobre la inteligencia artificial para reunir a desarrolladores comprometidos con las obligaciones de la Ley de IA antes de los plazos legales. A nivel internacional, la Unión Europea continuará trabajando en foros como el G7, la OCDE y las Naciones Unidas para promover normas de inteligencia artificial fiable.
Los antecedentes incluyen la Estrategia europea sobre la inteligencia artificial en 2018, directrices del Grupo de Expertos de Alto Nivel en 2019, un plan coordinado en 2018 y el Libro Blanco sobre la inteligencia artificial en 2020. La investigación del Centro Común de Investigación ha sido fundamental para configurar las políticas de la UE, influyendo en la terminología, la clasificación de riesgos y la formulación de normas armonizadas.
¿Cómo afectará esto a la innovación en el ámbito de la inteligencia artificial?
Aunque su implementación completa está pendiente, la regulación de la UE sobre inteligencia artificial establece los cimientos para una era de innovación tecnológica guiada por principios éticos y legales sólidos.
Para que lo anterior quede medianamente claro veamos el caso de ChatGPT: OpenAI estará sujeta a obligaciones de transparencia, incluyendo la explicación del proceso de entrenamiento del modelo y la revelación de los contenidos con propiedad intelectual utilizados. Además, en todos los audios, vídeos y textos generados, deberá quedar claro que han sido creados mediante inteligencia artificial. Tras todo esto, me surgen algunas dudas. ¿Cómo afectará esto a la innovación en el ámbito de la inteligencia artificial? ¿Se logrará un equilibrio adecuado entre la seguridad y la promoción de la creatividad en este campo tan dinámico? ¿Se innova o investiga en la UE sobre inteligencia artificial o sólo se regula? ¿Se quedará Europa atrasada en relación con el resto del mundo por una excesiva regulación? Este paso dado por la UE me genera muchas dudas que se irán resolviendo con el tiempo, para bien o para mal.