En este momento estás viendo El jefe de IA del Pentágono confirma el uso ampliado de Google por parte del Departamento de Defensa y afirma que depender de un solo modelo “nunca es algo bueno”
Gemini de Google.

El jefe de IA del Pentágono confirma el uso ampliado de Google por parte del Departamento de Defensa y afirma que depender de un solo modelo “nunca es algo bueno”

  • Autor de la entrada:
  • Categoría de la entrada:Resto del Mundo
  • Última modificación de la entrada:abril 29, 2026

Cameron Stanley, jefe de IA del Pentágono, confirmó a CNBC que el Departamento de Defensa está ampliando el uso del modelo de inteligencia artificial Gemini de Google, aproximadamente dos meses después de que el Departamento de Defensa (DOD) prescindiera de Anthropic, designándola como un riesgo para la cadena de suministro.

El DOD está utilizando el modelo más reciente de Google para proyectos clasificados, según una persona con conocimiento del asunto que solicitó permanecer en el anonimato debido a que los detalles específicos del acuerdo no son públicos. Anteriormente, el medio *The Information* informó que Google había firmado un acuerdo con el DOD para realizar trabajos clasificados, citando a una persona familiarizada con el asunto.

Además de Gemini, el Pentágono también está trabajando con OpenAI y otros proveedores para modernizar sus capacidades bélicas, declaró Stanley a CNBC en una entrevista en video.

«Depender excesivamente de un solo proveedor nunca es algo bueno», afirmó. «Lo estamos viendo, especialmente en el ámbito del software».

La decisión del DOD de recurrir a Google se produce en medio de una acalorada disputa legal con Anthropic. A principios de este mes, un tribunal federal de apelaciones en Washington, D.C., denegó la solicitud de Anthropic para bloquear temporalmente la inclusión de la empresa de IA en la lista negra del departamento, mientras se tramita la demanda que impugna dicha sanción.

Ese fallo se produjo después de que un juez en San Francisco, en un caso separado pero relacionado, concediera a Anthropic una orden judicial preliminar que prohíbe a la administración Trump hacer cumplir la prohibición sobre el uso de su modelo Claude. Como resultado de las decisiones divergentes de ambos tribunales, Anthropic queda excluida de los contratos con el DOD, pero puede seguir trabajando con otras agencias gubernamentales durante el transcurso del litigio.

Un portavoz del DOD confirmó por correo electrónico que la agencia no está trabajando con Anthropic en este momento. El presidente Donald Trump declaró a CNBC la semana pasada que «es posible» que se llegue a un acuerdo que permita el uso de los modelos de Anthropic dentro del DOD.

Stanley señaló que, al utilizar Gemini, el Pentágono y las fuerzas armadas estadounidenses están ahorrando tiempo y dinero.

«Hay muchos aspectos diferentes que están permitiendo ahorrar miles de horas de trabajo humano; literalmente, miles de horas de trabajo humano cada semana», afirmó.

OpenAI y Anthropic se encuentran en una trayectoria de colisión competitiva, afirma Alex Kantrowitz, de Big Technology.

Este acuerdo está suscitando cierta oposición interna en Google, donde más de 700 empleados firmaron una carta enviada esta semana al director ejecutivo de la compañía, Sundar Pichai, en la que instan a la empresa a rechazar los proyectos que impliquen cargas de trabajo clasificadas. En la carta, afirmaron que no desean que la tecnología sea «utilizada de maneras inhumanas o extremadamente perjudiciales».

El objetivo primordial, según Stanley, es lograr el mejor resultado para los combatientes de Estados Unidos. Para conseguirlo, el Pentágono debe asegurarse de utilizar adecuadamente los modelos de IA.

«Tengo una frase personal que suelo repetir en estos momentos: no se cocina un pavo de Acción de Gracias en el microondas», comentó. «Es necesario contar con la tecnología idónea para el caso de uso específico, a fin de lograr el resultado correcto».

Stanley señaló que el lanzamiento de Mythos por parte de Anthropic, a principios de este mes, supuso una llamada de atención. Este potente modelo se puso a disposición de un número limitado de empresas, debido en parte a sus avanzadas capacidades cibernéticas y a los riesgos potenciales que estas conllevaban.

Stanley afirmó que el Departamento de Defensa (DOD) se está «tomando este asunto muy en serio», con el fin de «asegurarse de que no solo estamos a la altura de las circunstancias actuales, sino también preparados para lo que vendrá después: toda una serie de capacidades habilitadas por la IA» en áreas que plantean desafíos.