Tenemos protocolos y estándares para casi todo. Generalmente, resulta útil que todos estemos de acuerdo sobre cómo deben comunicarse las tecnologías entre sí. Por lo tanto, era solo cuestión de tiempo antes de que aparecieran los primeros protocolos que rigen la IA agencial.
El Protocolo de Contexto de Modelo (MCP) de Anthropic, para bien o para mal, es uno de los más reconocibles. Introducido el año pasado, MCP facilita la conexión de modelos a almacenes de datos externos, API y otras funciones y herramientas; también abrió la puerta a otra ola de amenazas de seguridad.
Sin embargo, MCP no es el único protocolo centrado en la IA que está cobrando impulso. En Google I/O en abril, Chocolate Factory presentó su protocolo de Agente a Agente (A2A). A primera vista, MCP y A2A parecen muy similares. Comparten una arquitectura cliente-servidor similar, utilizan muchos de los mismos protocolos subyacentes de mensajería y transporte y, a pesar de su relativa inmadurez, han gozado de un importante respaldo de la industria.
Sería comprensible pensar que se trata de una nueva guerra de estándares VHS y Betamax, con dos gigantes de la IA peleándose por qué protocolo será el más adecuado. En realidad, MCP y A2A abordan problemas muy diferentes, y gran parte de la confusión que los rodea radica en la definición, a menudo vaga, de qué constituye realmente un agente de IA. Así que, aclaremos esto.
En general, los agentes son bastante simples: suelen contar con algún tipo de modelo responsable de interpretar la información y tomar decisiones sobre qué hacer con ella. Ese modelo puede tener acceso a diversas funciones o herramientas para recuperar o ejecutar dichas tareas.
Por ejemplo, un agente de registro podría usar una herramienta para sondear periódicamente un endpoint de API en busca de registros. Si se detecta una anomalía, podría usar otra herramienta para generar un ticket de soporte para que lo revise un operador humano. Si se logra que sean lo suficientemente confiables, estos agentes podrían eliminar a varios empleados molestos con sus salarios, seguro médico y bajas por enfermedad. Y aunque las primeras pruebas muestran que a los agentes les queda mucho por hacer, las principales empresas tecnológicas ya están elaborando planes para determinar a quiénes despedirán primero.
Mejores protocolos sobre cómo estos agentes deberían comunicarse entre sí podrían ayudarles a lograrlo. Y aquí es donde MCP y A2A entran en juego. Analizamos MCP en profundidad en abril, pero, en resumen, el protocolo es «un estándar universal y abierto para conectar sistemas de IA con fuentes de datos».
En otras palabras, MCP proporciona una forma estandarizada para que los modelos interactúen con recursos existentes, como una base de datos SQL, un clúster de Kubernetes o API existentes. El protocolo sigue una arquitectura cliente-servidor estándar, con intercambio de información mediante JSON-RPC, que se transmite a través de Stdio, HTTP o SSE, según el caso de uso específico.

Lo importante es que MCP está diseñado para facilitar la comunicación entre modelos y herramientas, exponiendo sus capacidades de forma estandarizada. Por ello, Anthropic describe MCP como una especie de USB-C para IA. Sin embargo, como ya hemos explorado, es solo una de las muchas maneras de lograrlo. Por ejemplo, se puede lograr una funcionalidad similar en LangChain.
Si MCP es como USB, entonces A2A se puede considerar como Ethernet. A2A también utiliza JSON-RPC, HTTP y SSE, pero su objetivo es facilitar la comunicación entre agentes.

Estas comunicaciones siguen una ruta bastante predecible, que comienza con una fase de descubrimiento donde los agentes de un sistema intercambian tarjetas de presentación que contienen su nombre, sus funciones, dónde contactarlos y cómo autenticarse. Estas tarjetas también contienen detalles sobre funciones opcionales, como la transmisión de datos a través de SSE, así como los tipos de formatos (es decir, texto, imágenes, audio o vídeo) que pueden ingerir o devolver.
Ahora que los agentes se conocen entre sí, pueden enviarse tareas donde un agente actúa como cliente y el otro como servidor. Sin embargo, cabe destacar que estos roles no son necesariamente fijos, y los agentes pueden actuar como cliente o servidor según el contexto.
Una vez creada la tarea, el servidor del agente envía un mensaje junto con un ID de tarea, que se utiliza para rastrear su progreso, lo cual es importante para trabajos de larga duración. El cliente puede sondear al servidor periódicamente o, si ambos admiten SSE, el servidor puede proporcionar actualizaciones automáticas sobre su progreso.
Esto permite que la tarea marque la información faltante, como la dirección de correo electrónico de un usuario o la gravedad de un ticket de soporte, que puede ser necesaria para continuar. Una vez completada la tarea, el resultado se envía del servidor al cliente en forma de artefacto, que puede contener varias partes, como texto, imágenes y JSON estructurado, entre otros.
Retomando nuestro ejemplo anterior, el agente de registro podría enviar un ticket de soporte a través de A2A a otro agente que puede realizar diagnósticos y evaluar si se puede resolver automáticamente o requiere intervención humana.
Un impulso clave detrás de A2A es la idea de que los sistemas agénticos verdaderamente útiles se ensamblarán a partir de múltiples agentes más especializados, algunos de los cuales pueden haber sido desarrollados internamente y otros proporcionados por el proveedor de software.
En cuanto al protocolo, a A2A no le importa si un agente utiliza MCP para lograr su objetivo; Sólo que todos los agentes hablan el mismo idioma y comunican claramente sus capacidades, limitaciones y avances ya que, nuevamente, algunas tareas pueden no completarse en tiempo real.
Desde que Google presentó A2A en I/O esta primavera, el protocolo ha gozado de un amplio apoyo por parte de desarrolladores de modelos, proveedores de nube y proveedores de software, como Accenture, Arize, Atlassian, Workday e Intuit, por nombrar solo algunos.
Y con el respaldo de Amazon, Microsoft, Cisco, Salesforce, SAP y ServiceNow, Google anunció en junio su intención de donar el protocolo A2A a la Fundación Linux.
Si bien tanto MCP como A2A han recibido un fuerte apoyo de los gigantes tecnológicos hasta la fecha, el ecosistema de IA aún se encuentra en sus primeras etapas y la tecnología no muestra signos de desaceleración. Los organismos de normalización, por su parte, no tienen un historial de rapidez, especialmente si existe un desacuerdo sobre cómo se debe hacer algo o qué características debe y no debe definir. Por lo tanto, es muy posible que surjan nuevos estándares y protocolos a medida que se comprendan mejor los sistemas agénticos.

