OpenAI sella un pacto con el Pentágono para desplegar sus modelos de IA en la red clasificada de EE.UU.

OpenAI acuerda con el Pentágono usar sus modelos de IA en la red clasificada de EE.UU., en contraste con el veto a la tecnología de Anthropic.

2 minutos

Logotipo de OpenAI Europa Press/Contacto/Thomas Fuller

Logotipo de OpenAI Europa Press/Contacto/Thomas Fuller

Comenta

Publicado

2 minutos

El consejero delegado de OpenAI, Sam Altman, ha hecho público un acuerdo con el Departamento de Defensa (DOD) de Estados Unidos para desplegar sus modelos de Inteligencia Artificial en la red clasificada del Ejecutivo estadounidense. Según ha explicado, ambas partes comparten dos de sus principios de seguridad esenciales: “la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluyendo los sistemas de armas autónomas”.

“El Departamento de Guerra coincide con estos principios, los refleja en la legislación y las políticas, y los incorporamos en nuestro acuerdo”, ha señalado Altman en un mensaje difundido en redes sociales, donde también ha remarcado que “la seguridad de la IA y la amplia distribución de beneficios” constituyen la “base” del proyecto que lidera.

El máximo responsable de OpenAI ha elogiado la actitud del Departamento de Defensa en “todas (sus) interacciones” y ha destacado el “profundo respeto” y el “deseo mostrado” desde el Pentágono para “asociarse para lograr el mejor resultado posible”. Entre los compromisos alcanzados figura la introducción de “salvaguardas técnicas para garantizar que (estos) modelos se comporten correctamente, algo que el DOD también deseaba”.

Esta visión ha sido respaldada por el subsecretario de Defensa, Emil Michael, quien, también a través de redes sociales, ha aplaudido la alianza y ha descrito a OpenAI como “un socio confiable y estable”. “Cuando se trata de cuestiones de vida o muerte para nuestros combatientes”, ha recalcado, “contar (con alguien) que actúe de buena fe marca la diferencia al adentrarnos en la era de la IA”.

Altman ha adelantado que “implementaremos FDE para respaldar nuestros modelos y, para garantizar su seguridad, los implementaremos únicamente en redes en la nube”, al tiempo que ha pedido al Departamento de Trabajo “que ofrezca estas mismas condiciones a todas las empresas de IA”. “En nuestra opinión, todos deberían estar dispuestos a aceptarlas”, ha añadido, expresando su aspiración de que “la situación se desactive, dejando de lado las acciones legales y gubernamentales para avanzar hacia acuerdos razonables”.

El anuncio se produce después de que el presidente estadounidense, Donald Trump, ordenara a todas las agencias federales dejar de utilizar el modelo de IA de Anthropic. La decisión llega tras la negativa de la compañía a levantar ciertas restricciones e incorporar en sus contratos usos de la herramienta ligados a la “vigilancia doméstica masiva” o al desarrollo de “armas totalmente autónomas”.

Con anterioridad, el director ejecutivo de Anthropic, Dario Amodei, ya se había negado a atender las exigencias del Departamento de Defensa en relación con los límites de uso de su modelo de IA, Claude, argumentando que preferían no colaborar con el Pentágono antes que aceptar aplicaciones de su tecnología que pudieran “socavar, en lugar de defender, los valores democráticos”.