
Hay una diferencia enorme entre una IA que responde… y una IA que hace cosas. Y es que ahí cambia el guion: ya no estamos ante “un chatbot simpático”, sino ante sistemas que pueden interactuar de forma autónoma para lograr objetivos, encadenar tareas, consultar servicios, tomar decisiones intermedias y ejecutar acciones.
Por eso, la Agencia Española de Protección de Datos ha publicado unas orientaciones específicas sobre IA agéntica desde la perspectiva de protección de datos. La idea de fondo es muy sensata: conocer cómo funciona esta tecnología (y sus límites) es clave para decidir bien antes de meterla en un tratamiento con datos personales.
Y si lo piensas, tiene todo el sentido del mundo: cuando una herramienta puede “mover piezas” por su cuenta, el riesgo no es solo que se equivoque… es que se equivoque rápido y a gran escala.
¿Qué dice la AEPD, en limpio?
En el documento se define el agente de IA como un sistema que usa modelos de lenguaje para cumplir un objetivo, y deja claro algo importante: no analiza el cumplimiento de un caso concreto, sino que orienta sobre cómo gestionar las peculiaridades que aparecen cuando implementas (total o parcialmente) un tratamiento con agentes.
Además, la AEPD insiste en dos ideas que, la verdad, deberían estar enmarcadas en cualquier proyecto:
-
Ni rechazo irracional (“esto es peligroso, no lo toquemos”),
-
ni aceptación acrítica (“ponlo ya, que está de moda”).
Lo útil es lo del medio: criterio + control.
¿Qué cambia cuando la IA “actúa”?
Cuando hablamos de IA agéntica, suelen aparecer tres “zonas calientes”:
-
Más autonomía = más superficie de riesgo
Si el sistema puede buscar información, conectarse a herramientas o ejecutar acciones, aumenta la probabilidad de accesos indebidos, fugas o tratamientos no previstos. -
Más pasos intermedios = más datos en tránsito
En un flujo agéntico hay memoria, contexto, registros, prompts, resultados parciales… y ahí puede colarse información personal sin que nadie se dé cuenta. -
Más actores y proveedores
A veces, sin querer, se suman “intervinientes” al tratamiento (servicios externos, APIs, plugins, proveedores). Y eso impacta en contratos, roles, transferencias y responsabilidades.
Checklist práctico para implantar IA agéntica con cabeza
Aquí va una lista “de trinchera”, pensada para que Criteria05 la pueda usar tal cual en proyectos (y para que cualquier organización no se líe):
1) Caso de uso muy concreto (y medible)
Antes de hablar de herramientas:
-
¿Qué tarea exacta hará el agente?
-
¿Qué decisión o proceso mejora?
-
¿Cómo mediremos que funciona (tiempo, coste, calidad, riesgo)?
Si no es medible, suele acabar en “demo bonita” que no se adopta.
2) Mapa de datos: qué entra, qué sale y dónde se guarda
Hazlo simple:
-
Datos que el agente necesita (mínimos).
-
Datos que no debería ver jamás.
-
Dónde se almacenan trazas, logs, memoria o historiales.
Aquí suele aparecer el gran clásico: “no sabíamos que guardaba conversaciones”.
3) Privacidad desde el diseño, pero en serio
La AEPD anima a aprovechar la IA agéntica de forma proactiva para mejorar la protección de datos “desde el diseño y por defecto”, incluso como herramienta PET (tecnologías que refuerzan la privacidad).
Ejemplos reales:
-
agentes que detectan y enmascaran datos personales antes de procesarlos,
-
agentes que revisan contratos y términos de servicio cambiantes,
-
agentes que ayudan a “higienizar” y racionalizar tratamientos (menos datos, menos exposición).
4) Gobernanza: roles claros y supervisión humana
¿Quién aprueba cambios? ¿Quién supervisa? ¿Quién puede activar/desactivar el agente?
Y un punto que se repite en el documento: la implicación del Delegado de Protección de Datos (DPD) y asesores cualificados es clave para aterrizar medidas técnicas y organizativas desde el diseño.
5) Plan de riesgos y “límites de actuación”
Pon barreras claras:
-
qué acciones puede ejecutar (y cuáles no),
-
confirmaciones obligatorias (human-in-the-loop) para acciones sensibles,
-
alertas cuando el agente intente acceder a datos no previstos.
Piensa en ello como poner barandillas en una escalera: nadie se queja… hasta que faltan.
Un ejemplo rápido (para verlo claro)
Imagina un agente para atención al cliente que:
-
consulta pedidos,
-
propone soluciones,
-
y genera devoluciones.
Bien. Ahora la pregunta incómoda:
¿puede “inventarse” una devolución? ¿puede exponer datos de otro cliente? ¿puede enviar información a un tercero?
Con IA agéntica, ese tipo de fallos ya no es un “error de respuesta”: es un acto que puede tener consecuencias operativas y legales. Por eso estas orientaciones llegan en buen momento.
La IA agéntica abre oportunidades enormes, sí. Pero el truco no está en correr más: está en correr con cinturón y frenos.
Si estás valorando usar agentes en procesos con datos personales, lo más inteligente (y lo más rentable a medio plazo) es empezar por un piloto pequeño, con caso de uso medible, controles claros y gobernanza bien atada. Y a partir de ahí, escalar. Sin sustos, y sin apagar fuegos cada semana.
