La inteligencia artificial, esa quimera digital que avanza sin pedir permiso, ha llevado al Gobierno a enfundarse en su traje de regulador. Con un bolígrafo en una mano y una lupa en la otra, ha alumbrado este Anteproyecto de Ley, una criatura jurídica que, si bien nace con el loable propósito de garantizar la ética y la seguridad, corre el riesgo de convertirse en un corsé más para la innovación y en un peaje obligatorio para quienes se atrevan a desafiar las reglas del juego.
Un marco regulador con dientes
El texto se inscribe en la estela del Reglamento Europeo de Inteligencia Artificial (UE 2024/1689), un compendio de normas que clasifica los sistemas de IA según su nivel de riesgo y establece las bases de su supervisión. En la práctica, esto se traduce en un mapa de obligaciones y prohibiciones que coloca en la diana a empresas y desarrolladores, obligados a justificar cada línea de código bajo la atenta mirada del Estado.
Para ello, el Gobierno ha decidido reforzar el poder de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), que será la mano ejecutora de este nuevo orden digital. No estará sola: la Agencia Española de Protección de Datos (AEPD), el Consejo General del Poder Judicial (CGPJ) y la Junta Electoral Central se suman a la vigilancia, cada uno con su parcela de control. Un entramado institucional que, bien afinado, podría garantizar un uso responsable de la IA, pero que también deja espacio para una burocracia inquisitiva que ahogue la creatividad tecnológica bajo montones de papeleo y regulaciones.
Sanciones y desconexiones fulminantes
La ley no solo impone normas, también blande el garrote. Las sanciones para quienes infrinjan el marco regulador pueden llegar a los 35 millones de euros o al 7% del volumen de negocio global, cifras que harían temblar incluso a los gigantes tecnológicos. Y aquí entra en juego una de las disposiciones más contundentes del anteproyecto: el derecho de «desconexión«, que permite la retirada inmediata del mercado de cualquier sistema de IA que haya provocado un «incidente grave».
El problema, como siempre, está en la interpretación. Porque, ¿quién define qué es un «incidente grave»? ¿Será un algoritmo sesgado suficiente razón para apagar un sistema entero? ¿Y si la IA en cuestión incomoda a los que deciden? La experiencia dicta que, cuando las normas son lo bastante ambiguas, su aplicación suele depender más del humor del regulador que de la letra escrita.
El dilema del reconocimiento biométrico
Otro de los puntos calientes de la normativa es el uso de identificación biométrica en espacios públicos. En teoría, su empleo estará restringido a situaciones como la persecución de delitos graves o la búsqueda de personas desaparecidas. Sin embargo, no deja de ser inquietante que la Junta Electoral Central pueda supervisar la IA aplicada en procesos electorales. Hoy se habla de garantizar la integridad democrática; mañana, ¿quién sabe si se utilizará para vigilar a la disidencia política bajo el pretexto del “interés general”?
Startups y PYMEs: la letra pequeña de la innovación
El Gobierno ha querido vestirse de impulsor de la innovación al incluir medidas de apoyo a PYMEs y startups, prometiendo condiciones flexibles para que no se vean aplastadas por la normativa. En la práctica, esto se traduce en un entorno de pruebas controladas –los famosos sandboxes– donde las empresas podrán testear sus sistemas antes de su lanzamiento oficial. Suena bien en el papel, pero en la jungla tecnológica, no es raro que las grandes corporaciones adapten fácilmente sus estructuras a estas regulaciones, mientras que los pequeños emprendedores se quedan atrapados en un laberinto de permisos, auditorías y costes inasumibles.
Conclusión: ¿protección o corsé?
Que la inteligencia artificial necesita regulación es un hecho. Nadie quiere un mundo en el que los algoritmos operen sin control, decidiendo sobre nuestra salud, nuestra seguridad o nuestro empleo con una opacidad absoluta. Sin embargo, también es cierto que, en nombre de la protección, se han impuesto leyes que acaban siendo instrumentos de vigilancia y control excesivo.
Este anteproyecto coloca a España en la vanguardia de la regulación de la IA, pero también abre preguntas incómodas: ¿será una herramienta de equilibrio entre tecnología y derechos, o un mecanismo de censura digital encubierta? ¿Protección ciudadana o barrera infranqueable para la innovación?
Como siempre, será la realidad la que dicte sentencia. Y, como bien sabemos, la realidad no suele leerse los anteproyectos de ley antes de actuar.
Nada mejor que leer el anteproyecto para sacar sus propias conclusiones. Aquí lo dejo en formato PDF.