En este momento estás viendo Los agentes de IA abundan, sin estar sujetos a reglas ni regulaciones de seguridad
El Índice de Agentes de IA 2025 del MIT CSAIL pone los sistemas automatizados opacos bajo el microscopio.

Los agentes de IA abundan, sin estar sujetos a reglas ni regulaciones de seguridad

  • Autor de la entrada:
  • Categoría de la entrada:China
  • Última modificación de la entrada:febrero 20, 2026

Los agentes de IA son cada vez más comunes y capaces, sin que exista consenso ni estándares sobre su comportamiento, según investigadores académicos.

Así lo afirma el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT, que analizó 30 agentes de IA para su Índice de Agentes de IA 2025, que evalúa los modelos de aprendizaje automático capaces de actuar en línea mediante su acceso a servicios de software.

Los agentes de IA pueden adoptar la forma de aplicaciones de chat con herramientas (Manus AI, ChatGPT Agent, Claude Code), agentes basados ​​en navegador (Perplexity Comet, ChatGPT Atlas, ByteDance Agent TARS) o agentes de flujo de trabajo empresarial (Microsoft Copilot Studio, ServiceNow Agent).

El documento que acompaña al Índice de Agentes de IA observa que, a pesar del creciente interés e inversión en agentes de IA, «los aspectos clave de su desarrollo e implementación en el mundo real siguen siendo opacos, y hay poca información disponible públicamente para investigadores o legisladores».

El frenesí de la comunidad de IA en torno a la plataforma de agentes de código abierto OpenClaw y su red de interacción con agentes, Moltbook, junto con la continua frustración con el envío de código generado por IA a proyectos de código abierto, subraya las consecuencias de permitir que los agentes actúen libremente sin reglas de comportamiento.

En el artículo, los autores señalan que la tendencia de los agentes de IA a ignorar el Protocolo de Exclusión de Robots (que utiliza archivos robots.txt para indicar que no dan su consentimiento para el scraping de sitios web) sugiere que los protocolos web establecidos podrían ya no ser suficientes para detener a los agentes.

Es un tema oportuno. Anthropic, uno de los principales proveedores de agentes de IA, publicó el miércoles su propio análisis de la autonomía de los agentes de IA, centrado más en cómo se utilizan los agentes que en las consecuencias de su uso.

«Los agentes de IA ya están aquí y se están implementando en contextos con consecuencias muy diversas, desde la clasificación de correo electrónico hasta el ciberespionaje», declaró la compañía. «Comprender este espectro es fundamental para implementar la IA de forma segura; sin embargo, sabemos sorprendentemente poco sobre cómo las personas usan realmente los agentes en el mundo real».

Según la consultora McKinsey, los agentes de IA tienen el potencial de aportar 2,9 billones de dólares a la economía estadounidense para 2030, suponiendo que las cuantiosas inversiones de capital de OpenAI y otras empresas tecnológicas no hayan descarrilado el impulso publicitario. Cabe destacar que las empresas aún no están obteniendo un gran retorno de sus inversiones en IA. El año pasado, investigadores descubrieron que los agentes de IA solo podían completar alrededor de un tercio de las tareas de oficina de varios pasos. Sin embargo, los modelos de IA han mejorado desde entonces.

El Índice de Agentes de IA 2025 del MIT CSAIL abarca 30 agentes de IA. Es más pequeño que su predecesor, la edición de 2024, que analizó 67 sistemas agénticos. Los autores afirman que la edición de 2025 profundiza en el análisis de los agentes en seis categorías: legal, capacidades técnicas, autonomía y control, interacción con el ecosistema, evaluación y seguridad. El sitio web del Índice de Agentes de IA ofrece esta información para cada agente registrado, cada uno con 45 campos de anotación.

Según los investigadores, 24 de los 30 agentes estudiados se lanzaron o recibieron actualizaciones importantes de sus funciones durante el período 2024-2025. Sin embargo, los desarrolladores de agentes hablan más de las características del producto que de las prácticas de seguridad.

«De los 13 agentes que exhiben niveles de autonomía límite, solo cuatro revelan evaluaciones de seguridad agéntica (ChatGPT Agent, OpenAI Codex, Claude Code, Gemini 2.5 Computer Use)», según los investigadores.

Los desarrolladores de 25 de los 30 agentes analizados no proporcionan detalles sobre las pruebas de seguridad y 23 no ofrecen datos de pruebas de terceros.

Para complicar aún más las cosas, la mayoría de los agentes se basan en unos pocos modelos base; la mayoría son arneses o envoltorios para modelos creados por Anthropic, Google y OpenAI, respaldados por capas de andamiaje y orquestación.

El resultado es una serie de dependencias difíciles de evaluar porque ninguna entidad es responsable única, afirman los expertos del MIT.

Trece de los agentes evaluados por los autores fueron creados por empresas constituidas en Delaware. Cinco provienen de organizaciones constituidas en China y cuatro tienen orígenes fuera de EE. UU. y de China: específicamente Alemania (SAP, n8n), Noruega (Opera) e Islas Caimán (Manus).

Entre los cinco creadores de agentes constituidos en China, uno cuenta con un marco de seguridad publicado y otro con un estándar de cumplimiento.

En el caso de los agentes originados fuera de China, quince utilizan marcos de seguridad como la Política de Escalado Responsable de Anthropic, el Marco de Preparación de OpenAI o el Estándar de IA Responsable de Microsoft. Los otros diez carecen de documentación sobre marcos de seguridad. Los estándares de garantía empresarial son más comunes: solo cinco de los 30 agentes carecen de estándares de cumplimiento documentados.

Veintitrés de los agentes evaluados son de código cerrado. Los desarrolladores de siete agentes publicaron su marco o arnés de agente en código abierto: Alibaba MobileAgent, Browser Use, ByteDance Agent TARS, Google Gemini CLI, n8n Agents, OpenAI Codex y WRITER.

En resumen, el Índice reveló que los fabricantes de agentes revelan muy poca información de seguridad y que unas pocas empresas dominan el mercado. Otros hallazgos importantes incluyen la dificultad de analizar los agentes debido a sus múltiples niveles de dependencia, y que los agentes no son necesariamente bienvenidos en todos los sitios web.

El artículo incluye a los siguientes autores: Leon Staufer (Universidad de Cambridge), Kevin Feng (Universidad de Washington), Kevin Wei (Facultad de Derecho de Harvard), Luke Bailey (Universidad de Stanford), Yawen Duan (Concordia AI), Mick Yang (Universidad de Pensilvania), A. Pinar Ozisik (MIT), Stephen Casper (MIT) y Noam Kolt (Universidad Hebrea de Jerusalén).