La automatización de procesos no es un fenómeno nuevo en las organizaciones. Sin embargo, la irrupción de los grandes modelos de lenguaje ha dado lugar a un cambio cualitativo: la aparición de sistemas capaces no solo de generar contenidos, sino de planificar, decidir y ejecutar acciones de forma autónoma para alcanzar objetivos definidos. Este es el núcleo de lo que la AEPD denomina IA agéntica (ver documento de la AEPD en formato PDF).

Desde la óptica de la protección de datos, la Agencia subraya que los agentes de IA deben entenderse como medios técnicos que permiten implementar tratamientos de datos personales con un grado de automatización superior, no como un tratamiento en sí mismos. Un mismo agente puede participar en varios tratamientos, y un tratamiento puede combinar operaciones ejecutadas por agentes con intervenciones humanas u otros sistemas tradicionales. Esta flexibilidad, que es una de sus principales ventajas, es también el origen de buena parte de sus riesgos.

El documento insiste en evitar la “niebla tecnológica”: el análisis de cumplimiento no debe partir del carácter innovador del agente, sino de las operaciones concretas que realiza, los datos a los que accede, las finalidades perseguidas y los efectos que puede producir sobre los derechos y libertades de las personas.

Qué es un agente de IA y por qué es relevante para la protección de datos

La AEPD define un agente de IA como un sistema que utiliza modelos de lenguaje para cumplir un objetivo, actuando de forma adecuada según sus circunstancias, con capacidad de descomponer tareas complejas, planificarlas y ejecutarlas mediante el acceso a servicios internos y externos.

Entre las características que resultan especialmente relevantes desde el punto de vista del RGPD destacan:

  • Autonomía, entendida como la capacidad de operar sin intervención humana constante.
  • Percepción del entorno, mediante el acceso a repositorios internos, servicios corporativos o fuentes externas en Internet.
  • Capacidad de acción, que va más allá de la generación de texto e incluye la ejecución de operaciones sobre sistemas, bases de datos o servicios de terceros.
  • Planificación y razonamiento, materializados en cadenas de razonamiento complejas y dinámicas.
  • Memoria, tanto para el contexto operativo del agente como para la gestión y supervisión de su actividad.

Cada una de estas capacidades introduce nuevos vectores de riesgo en los tratamientos de datos personales, que no se presentan —al menos con la misma intensidad— en otros usos de la inteligencia artificial generativa más tradicionales.

La cadena de razonamiento y el ciclo de vida del dato

Uno de los aportes más relevantes del documento es la atención que presta a la cadena de razonamiento del agente. Esta cadena describe el proceso interno por el que el sistema descompone una tarea en subtareas sucesivas, accede a distintas fuentes de información, transforma datos y produce un resultado final.

Desde la perspectiva de protección de datos, conocer y documentar esta cadena resulta esencial para:

  • Identificar qué datos personales intervienen en cada fase.
  • Determinar cuándo, cómo y con qué legitimación se accede a dichos datos.
  • Garantizar la trazabilidad, auditabilidad y explicabilidad del tratamiento.
  • Evaluar si se producen accesos excesivos, inferencias no previstas o usos incompatibles con la finalidad inicial.

La AEPD destaca que, sin este conocimiento técnico, resulta imposible evaluar correctamente el cumplimiento de principios como la minimización, la limitación de la finalidad o la exactitud de los datos.

Agentes de IA en tratamientos existentes y nuevos tratamientos

El documento diferencia dos escenarios habituales:

  1. Tratamientos preexistentes en los que se introduce IA agéntica como nuevo medio técnico.
    En estos casos, la incorporación del agente obliga a revisar el análisis de cumplimiento, ya que puede alterar el contexto, los riesgos y, potencialmente, las finalidades del tratamiento.
  2. Nuevos tratamientos diseñados desde cero aprovechando las capacidades de la IA agéntica.
    Aquí, la Agencia pone el acento en la oportunidad de aplicar de forma efectiva la protección de datos desde el diseño y por defecto, integrando salvaguardas desde las fases iniciales.

En ambos supuestos, el hecho de que una tarea pudiera realizarse tradicionalmente por una persona o por un encargado externo no exime de analizar los elementos diferenciales que introduce la autonomía, la memoria y la interacción con múltiples servicios digitales.

Vulnerabilidades específicas de la IA agéntica en relación con los datos personales

La AEPD dedica una parte sustancial del documento a identificar vulnerabilidades propias de los sistemas de IA agéntica, entendidas como debilidades que pueden ser explotadas por amenazas con impacto en la protección de datos.

Interacción con el entorno y acceso a datos

Los agentes suelen acceder a:

  • Repositorios internos de la organización (correo electrónico, bases de datos, documentos).
  • Servicios externos en Internet.
  • Herramientas de terceros con condiciones contractuales y políticas de privacidad heterogéneas.

Un acceso mal diseñado puede dar lugar a tratamientos masivos de datos, comunicaciones no previstas a terceros, utilización de información obsoleta o carente de calidad, y vulneraciones del principio de minimización.

Integración de servicios y complejidad técnica

La dependencia de múltiples servicios, APIs y herramientas incrementa la superficie de ataque y dificulta el control efectivo del tratamiento. La Agencia alerta sobre la facilidad con la que pueden desplegarse soluciones agénticas fuera de la gobernanza corporativa, dando lugar a fenómenos como el BYOAgentic (construir flujos agénticos al margen de las políticas de la organización).

Memoria del agente

La memoria es uno de los elementos más críticos desde el punto de vista de protección de datos. El documento distingue entre:

  • Memoria de trabajo, utilizada para el contexto operativo del agente.
  • Memoria de gestión, formada por registros y logs necesarios para auditoría y control.

Ambas pueden contener datos personales, perfiles de usuarios o inferencias sensibles. Sin políticas claras de compartimentación, conservación y acceso, la memoria puede convertirse en una fuente de riesgos elevados, tanto por retención excesiva como por reutilización indebida de la información.

Autonomía y comportamiento emergente

La autonomía introduce riesgos adicionales:

  • Dificultad para garantizar supervisión humana efectiva.
  • Riesgo de decisiones automatizadas con efectos significativos en los términos del artículo 22 del RGPD.
  • Comportamientos no repetibles o difíciles de explicar, derivados de la interacción entre agentes, fuentes de datos y servicios externos.

La AEPD advierte del sesgo de automatización y de la falsa sensación de fiabilidad que puede generar un sistema aparentemente consistente, pero carente de controles sólidos.

Aspectos clave de cumplimiento del RGPD

El documento revisa, de forma sistemática, los principales elementos del RGPD que deben reconsiderarse cuando se emplea IA agéntica:

  • Determinación de responsabilidades, especialmente en arquitecturas complejas con múltiples proveedores.
  • Transparencia, tanto frente a los interesados como internamente.
  • Legitimación del tratamiento, minimización y levantamiento de prohibiciones.
  • Registro de actividades de tratamiento, reflejando el uso de agentes.
  • Ejercicio de derechos, que debe poder realizarse también sobre los datos almacenados en memorias y logs.
  • Decisiones automatizadas, analizando si concurren los requisitos del artículo 22.
  • Gestión del riesgo y evaluaciones de impacto, integrando la IA agéntica en el marco general de gestión de riesgos de la organización.
  • Transferencias internacionales, especialmente cuando se utilizan servicios externos.

Amenazas asociadas a la IA agéntica

La Agencia clasifica las amenazas en dos grandes grupos:

  • Amenazas derivadas de tratamientos autorizados, como la falta de gobernanza, la ausencia de políticas de acceso, la retención excesiva de datos, el perfilado de usuarios o el sesgo de automatización.
  • Amenazas derivadas de tratamientos no autorizados, incluyendo inyección de prompts, accesos ilícitos a la memoria del agente o dependencias críticas de servicios externos.

Este enfoque permite relacionar de forma directa vulnerabilidades, amenazas e impactos potenciales sobre los derechos de las personas.

Medidas para garantizar el cumplimiento y reducir riesgos

El documento concluye con un amplio catálogo de medidas, organizadas en distintos bloques:

  • Gobernanza y procesos, con un papel destacado del Delegado de Protección de Datos.
  • Evaluación continua basada en evidencias, métricas y pruebas sistemáticas.
  • Minimización de datos, control granular de accesos y filtrado de flujos.
  • Control de la memoria, compartimentación, políticas de retención estrictas y estrategias de higienización.
  • Gestión de la autonomía, definición de niveles, intervención humana y reversibilidad de acciones.
  • Control desde el diseño, documentación, trazabilidad, pruebas, control de actualizaciones y mecanismos de contención.
  • Transparencia, consentimiento y alfabetización, tanto para usuarios como para personal interno.

La AEPD no presenta estas medidas como una lista cerrada, sino como un conjunto de opciones que deben adaptarse al contexto, al riesgo y a la naturaleza de cada tratamiento.

Reflexión final

Las orientaciones de la AEPD sobre IA agéntica no son una guía de cumplimiento automático ni un manual técnico de implementación. Son, ante todo, una llamada a la responsabilidad informada. La Agencia rechaza tanto el entusiasmo acrítico como el rechazo irracional de esta tecnología y propone un enfoque basado en conocimiento técnico, análisis de riesgos y aprovechamiento proactivo de sus capacidades para reforzar la protección de datos desde el diseño.

Para los profesionales de protección de datos, el mensaje es claro: la IA agéntica no elimina las obligaciones del RGPD, pero sí exige una comprensión más profunda de los sistemas, una colaboración estrecha con los equipos técnicos y una integración real de la privacidad en arquitecturas cada vez más autónomas y complejas.

Resume el artículo con tu IA favorita

Artículo anteriorCuando la Inteligencia Artificial se sentó en el Ayuntamiento
Artículo siguienteAlgoritmos contra la opacidad: el análisis de contratos públicos
Enrique Pampliega
Con más de cuatro décadas de trayectoria profesional, iniciada como contable y responsable fiscal, he evolucionado hacia un perfil orientado a la comunicación, la gestión digital y la innovación tecnológica. A lo largo de los años he desempeñado funciones como responsable de administración, marketing, calidad, community manager y delegado de protección de datos en diferentes organizaciones. He liderado publicaciones impresas y electrónicas, gestionado proyectos de digitalización pioneros y desarrollado múltiples sitios web para entidades del ámbito profesional y asociativo. Entre 1996 y 1998 coordiné un proyecto de recopilación y difusión de software técnico en formato CD-ROM dirigido a docentes y profesionales. He impartido charlas sobre búsqueda de empleo y el uso estratégico de redes sociales, así como sobre procesos de digitalización en el entorno profesional. Desde 2003 mantengo un blog personal —inicialmente como Blog de epampliega y desde 2008 bajo el título Un Mundo Complejo— que se ha consolidado como un espacio de reflexión sobre economía, redes sociales, innovación, geopolítica y otros temas de actualidad. En 2025 he iniciado una colaboración mensual con una tribuna de opinión en la revista OP Machinery. Todo lo que aquí escribo responde únicamente a mi criterio personal y no representa, en modo alguno, la posición oficial de las entidades o empresas con las que colaboro o he colaborado a lo largo de mi trayectoria.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí