En este momento estás viendo ¿Cómo pueden los agentes de IA, en rápido avance, lograr un desarrollo estable y sostenible?
Los sistemas inteligentes basados en IA pueden utilizar proactivamente diversas herramientas para completar tareas complejas en nombre de los usuarios.

¿Cómo pueden los agentes de IA, en rápido avance, lograr un desarrollo estable y sostenible?

  • Autor de la entrada:
  • Categoría de la entrada:Análisis
  • Última modificación de la entrada:enero 7, 2026

En medio del auge de la tecnología de inteligencia artificial (IA), los agentes de IA han emergido como una fuerza poderosa. Los agentes de IA, también conocidos como proxies de IA, son sistemas inteligentes capaces de utilizar proactivamente diversas herramientas para completar tareas complejas. Desde asistentes de viaje inteligentes hasta «empleados digitales», están transformando profundamente la forma en que los humanos interactúan con las computadoras. 2025 se considera el «año cero» para los agentes de IA. En el evento «Future of Global Markets 2025», celebrado en Nueva York en octubre de 2025, el CEO de Nvidia, Jensen Huang, lo describió como la próxima revolución en el campo de la IA.

¿Qué nuevo rendimiento mostrarán los agentes de IA en 2026?. ¿Cómo debería la humanidad guiar esta tecnología para garantizar su desarrollo estable y sostenible en esta compleja era tecnológica?.

«Empleados Digitales» Autónomos.

Los agentes de IA pueden realizar tareas en nombre de los usuarios, como extraer datos de correos electrónicos, generar informes, planificar itinerarios y reservar vuelos y hoteles. Su objetivo principal es gestionar las tareas diarias tediosas y que consumen mucho tiempo. A diferencia de la IA generativa, como ChatGPT, que requiere instrucciones paso a paso, los agentes de IA pueden realizar tareas de forma autónoma, de forma similar a los «empleados digitales» con pensamiento independiente y orientados a la acción.

Según la revista australiana *The Conversation*, a finales de 2024, Anthropic lanzó el «Protocolo de Contexto de Modelo», que permite a los desarrolladores conectar grandes modelos de lenguaje con herramientas externas de forma estandarizada. Esto proporciona a los modelos capacidades que van más allá de la generación de texto y sienta las bases para los agentes de IA.

Otro punto de inflexión se produjo en abril de 2025: Google lanzó el «Protocolo Agente a Agente», que se centraba más en el mecanismo de comunicación entre agentes. Y lo más importante, ambos protocolos pueden funcionar juntos. Posteriormente, Anthropic y Google donaron el protocolo a la Fundación Linux, estableciéndolo como un estándar abierto en lugar de un estándar empresarial propietario.

Los agentes de IA se incorporaron rápidamente al mercado de consumo. Para mediados de 2025, surgirán diversos «navegadores corporales inteligentes», que transformarán los navegadores de interfaces pasivas en socios inteligentes proactivos capaces de facilitar la reserva y la planificación.

Con la continua aparición de diversos agentes de IA, el mercado de inversión también está experimentando un crecimiento explosivo. Se prevé que el tamaño del mercado de agentes de IA crezca de 5.100 millones de dólares en 2024 a 47.100 millones de dólares en 2030. Los datos muestran que los agentes de IA se han convertido en la dirección dominante para la inversión inicial en 2025.

Son tanto «asesores técnicos» como «operadores proactivos».

Sin embargo, con la mejora de las capacidades, los riesgos de los agentes de IA también son cada vez más evidentes. En septiembre de 2025, Anthropic reveló que su agente Claude Code se utilizó maliciosamente para lanzar ciberataques automatizados contra 17 organizaciones, incluyendo hospitales y agencias gubernamentales. Los atacantes utilizaron el agente de IA por sí solos para completar todo el proceso, desde el reconocimiento y la creación de malware hasta ransomware, lo que convierte a una sola persona en un equipo de hackers. Anthropic señaló en su informe que, en este incidente, el agente de IA no solo actuó como «asesor técnico», sino también como «operador proactivo».

Este incidente sirve como una llamada de atención: si bien los agentes de IA mejoran la eficiencia, también pueden reducir el umbral de actividad maliciosa.

El sitio web de la revista Conversation enfatiza que los agentes de IA amplían las capacidades de las personas y las organizaciones y amplifican las vulnerabilidades de los sistemas existentes. Los modelos de generación de texto, previamente aislados, se están transformando en «actores» interconectados, habilitados por herramientas y sin supervisión.

La fiabilidad y la confianza son clave.

De cara al futuro, varios aspectos clave influirán en la evolución de los agentes de IA.

Uno de ellos es la innovación en los sistemas de evaluación. Las pruebas de referencia tradicionales, como los exámenes estructurados, son adecuadas para modelos individuales, pero los agentes de IA son sistemas complejos compuestos por modelos, herramientas, memoria y lógica de toma de decisiones. Los científicos se centran más en evaluar sus procesos de toma de decisiones que en sus resultados.

Otro enfoque clave son los mecanismos de gobernanza. A finales de 2025, la Fundación Linux creó la «Fundación de Agentes de IA» para promover el establecimiento de estándares compartidos y mejores prácticas. De tener éxito, se espera que esta organización impulse la construcción de un ecosistema de agentes de IA abierto e interoperable, similar al Consorcio World Wide Web.

El debate sobre el tamaño del modelo también se está intensificando. Si bien los modelos de propósito general a gran escala están atrayendo la atención, los modelos más ligeros y especializados suelen superar a los diseñados para tareas específicas. A medida que los agentes de IA se vuelven más accesibles a través de navegadores y software de flujo de trabajo, la elección de modelos se está trasladando gradualmente del laboratorio al usuario.

Enfrentando desafíos de seguridad y regulatorios.

A pesar del panorama optimista, los agentes de IA aún enfrentan numerosos desafíos sociotécnicos.

En términos de consumo energético, la expansión de los centros de datos ejerce presión sobre las redes eléctricas y la capacidad de las comunidades; en el ámbito laboral, la automatización impulsada por los agentes de IA plantea problemas de sustitución de puestos de trabajo y supervisión de empleados; en términos de seguridad, la vinculación de modelos con herramientas y la superposición de múltiples agentes de IA amplifican riesgos que los modelos de lenguaje aún no han abordado, como las indicaciones maliciosas ocultas en redes abiertas que pueden leerse, lo que podría provocar operaciones perjudiciales del sistema.

La regulación también es un problema pendiente. En comparación con Europa y China, Estados Unidos tiene regulaciones relativamente laxas sobre sistemas algorítmicos. A medida que los agentes de IA se integran más profundamente en la vida digital, es urgente impulsar los debates sobre el acceso, la responsabilidad y las limitaciones.

Abordar estos desafíos requiere no solo avances tecnológicos, sino también prácticas de ingeniería rigurosas, un diseño de sistemas meticuloso y una profunda comprensión de los atributos sociotécnicos de la IA. Solo considerando a los agentes de IA como sistemas complejos que integran tecnología e impacto social, en lugar de simplemente como herramientas de software, podremos construir un futuro inteligente que sea innovador y robusto.