En este momento estás viendo OpenAI revela más detalles sobre su acuerdo con el Pentágono
Logotipo de OpenAI.

OpenAI revela más detalles sobre su acuerdo con el Pentágono

  • Autor de la entrada:
  • Categoría de la entrada:Resto del Mundo
  • Última modificación de la entrada:marzo 2, 2026

Según admitió el propio director ejecutivo, Sam Altman, el acuerdo de OpenAI con el Departamento de Defensa fue «definitivamente apresurado» y «no pinta bien».

Tras el fracaso de las negociaciones entre Anthropic y el Pentágono el viernes, el presidente Donald Trump ordenó a las agencias federales que dejaran de usar la tecnología de Anthropic tras un período de transición de seis meses, y el secretario de Defensa, Pete Hegseth, declaró que designaba a la empresa de inteligencia artificial como un riesgo para la cadena de suministro.

Posteriormente, OpenAI anunció rápidamente que había llegado a un acuerdo propio para el despliegue de modelos en entornos clasificados. Con Anthropic afirmando que estaba poniendo límites al uso de su tecnología en armas totalmente autónomas o vigilancia doméstica masiva, y Altman afirmando que OpenAI tenía los mismos límites, surgieron algunas preguntas obvias: ¿OpenAI estaba siendo honesto sobre sus medidas de seguridad?. ¿Por qué pudo llegar a un acuerdo mientras que Anthropic no?.

Así pues, mientras los ejecutivos de OpenAI defendían el acuerdo en redes sociales, la compañía también publicó una entrada de blog describiendo su enfoque.

De hecho, la publicación señaló tres áreas en las que, según afirmaba, los modelos de OpenAI no pueden utilizarse: vigilancia doméstica masiva, sistemas de armas autónomas y decisiones automatizadas de alto riesgo (por ejemplo, sistemas como el ‘crédito social’).

La compañía afirmó que, a diferencia de otras empresas de IA que han reducido o eliminado sus barreras de seguridad y se han basado principalmente en políticas de uso como principales salvaguardas en los despliegues de seguridad nacional, el acuerdo de OpenAI protege sus límites mediante un enfoque más amplio y multicapa.

«Mantenemos plena discreción sobre nuestra pila de seguridad, implementamos a través de la nube, el personal autorizado de OpenAI está al tanto y contamos con sólidas protecciones contractuales», decía el blog. «Todo esto se suma a las sólidas protecciones existentes en la legislación estadounidense».

La compañía añadió: «Desconocemos por qué Anthropic no pudo llegar a este acuerdo, y esperamos que ellos y otros laboratorios lo consideren».

Tras la publicación de la publicación, Mike Masnick, de Techdirt, afirmó que el acuerdo «permite la vigilancia nacional», ya que establece que la recopilación de datos privados cumplirá con la Orden Ejecutiva 12333 (junto con otras leyes). Masnick describió dicha orden como «la forma en que la NSA oculta su vigilancia nacional al capturar comunicaciones mediante la intervención de líneas *fuera de EE.UU.*, incluso si contiene información de/sobre ciudadanos estadounidenses».

En una publicación de LinkedIn, la directora de asociaciones de seguridad nacional de OpenAI, Katrina Mulligan, argumentó que gran parte del debate sobre el texto del contrato asume que «lo único que se interpone entre los estadounidenses y el uso de la IA para la vigilancia nacional masiva y las armas autónomas es una cláusula de política de uso único en un único contrato con el Departamento de Guerra».

«Así no es como funciona nada de esto», declaró Mulligan, y añadió: «La arquitectura de implementación es más importante que el texto del contrato […] Al limitar nuestra implementación a la API en la nube, podemos garantizar que nuestros modelos no se puedan integrar directamente en sistemas de armas, sensores u otro hardware operativo».

Altman también respondió preguntas sobre el acuerdo en X, donde admitió que se había apresurado y que había provocado una reacción negativa significativa contra OpenAI (hasta el punto de que Claude de Anthropic superó a ChatGPT de OpenAI en la App Store de Apple el sábado). Entonces, ¿por qué hacerlo?.

«Realmente queríamos reducir la tensión y creíamos que el acuerdo ofrecido era bueno», dijo Altman. «Si tenemos razón y esto conduce a una reducción de la tensión entre el Departamento de Trabajo y la industria, pareceremos genios y una empresa que se esforzó mucho para ayudar a la industria. De lo contrario, seguiremos siendo considerados […] precipitados e imprudentes».