Según el Foro Económico Mundial, las identidades no humanas y de agentes superarán los 45 mil millones para fines de 2025, una cifra más de 12 veces el tamaño de la fuerza laboral mundial. Las implicaciones posteriores para la gestión de identidades y accesos (IAM) serán enormes.
Consideremos el cambio que se está produciendo. La identidad humana, el ancla de la seguridad empresarial, implica proporcionar una cuenta para cada empleado, asignarle un rol y gobernarlo mediante permisos estáticos. Ahora imagine multiplicar ese modelo por docenas de agentes de IA polimórficos y efímeros que se activan para cada individuo. El tradicional andamiaje identitario colapsará bajo la presión.
De la identidad determinista a la adaptativa.
Las aplicaciones actuales se comportan de forma predecible; son deterministas. Ejecutan flujos deterministas: «extraen datos de HubSpot todos los lunes, compilan un informe, envían un correo electrónico». Fácil de modelar, fácil de asegurar.
Los agentes de IA son diferentes. Dada la autonomía, los mismos insumos pueden producir resultados tremendamente diferentes. Un agente al que se le pide que resuma los clientes potenciales entrantes podría algún día escribir información detallada, al día siguiente extraer datos de Google Drive y otro día escalar anomalías a un sistema ejecutivo.
Esta imprevisibilidad no determinista erosiona los cimientos de las asignaciones de roles estáticas. No se pueden preasignar permisos cuando los comportamientos cambian minuto a minuto. Aprobar cada acción manualmente es insostenible. Sin embargo, otorgar un acceso amplio y duradero es una invitación al desastre.
Permisos dinámicos a velocidad de máquina.
Para gestionar el aumento de agentes de IA, los permisos deben implementarse utilizando un modelo dinámico y justo a tiempo. En lugar de asignar credenciales estáticas a los agentes, los equipos de seguridad deben diseñar sistemas que emitan tokens de duración ultracorta destinados a una sola operación. Estas credenciales deberían caducar en segundos, no en horas o días.
El objetivo es imponer privilegios mínimos a la velocidad de la máquina. Los agentes obtienen precisamente lo que necesitan, ni más ni menos, para la acción específica que están realizando. Cuando se completa la acción, el privilegio desaparece. Si un agente se ve comprometido, el radio de la explosión se mide en segundos, no en semanas.
El problema de la doble persona.
Un agente a menudo actúa como sí mismo (el actor) y en nombre de un ser humano (el sujeto). Piense en un analista que delega la investigación a un asistente de IA: la identidad del analista debe estar representada, pero el agente también tiene un contexto de ejecución independiente. Esto crea un modelo de doble persona.
Los sistemas de identidad tradicionales no fueron diseñados para expresar esta dualidad y vincular a ambas personas en cada solicitud: quién es el humano, qué puede hacer el agente, la intención de la solicitud y el contexto en el que ocurre la acción.
Si no se captura este matiz, se corre el riesgo de que los agentes operen fuera de los límites previstos, lean datos confidenciales, ejecuten transacciones o modifiquen registros bajo un modelo de identidad incorrecto.
Extendiendo la Confianza Cero a los Agentes.
La próxima frontera es la confianza entre agentes. Las empresas no sólo contarán con asistentes de IA aislados; desplegarán flotas de agentes que colaboran en toda la infraestructura. Imagine un enjambre de administración de clústeres: un agente monitorea las cargas de trabajo, otro escala los clústeres y otro organiza las implementaciones azules/verdes.
Sin un diseño cuidadoso, estos agentes pueden eludir por completo los controles de identidad tradicionales, intercambiando instrucciones sin dejar pistas de auditoría rastreables. En cambio, cada llamada de agente a agente debe autenticarse, autorizarse y registrarse: sin confianza implícita ni canales ocultos.
Los agentes pueden aparecer y desaparecer en segundos. Algunas persistirán, otras se activarán para una sola transacción. Su naturaleza efímera rompe el ciclo de vida convencional de gestión de identidades.
Igual de importante es que cada acción debe ser auditable. Sin un rastro de eventos no repudiable, la respuesta a incidentes y el cumplimiento son imposibles. Las empresas necesitan registros y trazabilidad adaptados a los agentes de IA, capturando no solo lo que se hizo, sino bajo qué identidad, en nombre de quién y en qué contexto.
Un manual de estrategias de identidad del agente.
Los agentes de IA no esperarán a que el IAM heredado se ponga al día. Su velocidad, escala e imprevisibilidad abrumarán a los modelos estáticos creados para humanos. Para mantenerse a la vanguardia de este cambio, los líderes de seguridad necesitan un manual diseñado para las máquinas: dinámico, automatizado e inflexible. Aquí hay cuatro mejores prácticas a considerar:
- Automatice los ciclos de vida de la identidad de los agentes: aprovisione, supervise y retire agentes en tiempo real, sin intervención manual.
- Aplique el privilegio mínimo de forma dinámica: otorgue permisos justo a tiempo y ajústelos a operaciones únicas con una duración de token ultracorta.
- Amplíe la confianza cero a los agentes: trate las comunicaciones entre agentes con el mismo escrutinio que los inicios de sesión humanos: autentique, autorice y audite cada llamada.
- Monitoree con total auditabilidad: asegúrese de que cada acción deje un rastro verificable, incluso cuando los agentes existan solo por unos segundos.
La magnitud del desafío de la identidad es inevitable. Las empresas desatarán ejércitos de agentes de IA porque el argumento comercial es demasiado sólido para ignorarlo. El desafío para los líderes de seguridad es garantizar que esos agentes operen dentro de barreras de seguridad predefinidas. Esto requiere ir más allá de los modelos IAM estáticos y adoptar prácticas diseñadas para la velocidad de la máquina.
El verdadero desafío de la identidad agente es convertir los principios en práctica. Esto significa invertir en sistemas que puedan emitir y revocar credenciales automáticamente, incorporar el contexto de identidad en cada flujo de trabajo que tocan sus agentes e instrumentar el tráfico entre agentes para que toda la actividad pueda observarse y controlarse.
Si es necesario, cree circuitos de retroalimentación que utilicen telemetría y datos de auditoría para perfeccionar las políticas a lo largo del tiempo. Los equipos de seguridad que incluyan estas capacidades en sus operaciones diarias no sólo se adaptarán al aumento de los agentes de IA, sino que las utilizarán para ofrecer velocidad, resiliencia y confianza a escala.

