El Pentágono sopesa romper con Anthropic por las restricciones al uso militar de su inteligencia artificial

La empresa mantiene vetos a la vigilancia masiva y a las armas totalmente autónomas mientras el Departamento de Defensa exige acceso para “todos los fines legales”, incluso en redes clasificadas

3 minutos

Inteligencia Artificial FUJITSU

Inteligencia Artificial FUJITSU

Comenta

Publicado

3 minutos

El Departamento de Defensa de Estados Unidos está valorando revisar o incluso romper su relación contractual con la empresa de inteligencia artificial Anthropic, ante la negativa de la compañía a permitir que sus modelos se utilicen sin limitaciones en determinadas aplicaciones militares, según ha adelantado Axios citando a un alto cargo de la Administración estadounidense.

El Pentágono exige a los principales laboratorios de IA que sus herramientas puedan emplearse para “todos los fines legales”, incluidos ámbitos sensibles como el desarrollo de armamento, la recopilación de inteligencia o las operaciones en el campo de batalla. Anthropic, sin embargo, mantiene dos líneas rojas: la vigilancia masiva de ciudadanos estadounidenses y el uso en sistemas de armamento completamente autónomos.

Un contrato millonario en riesgo

Anthropic firmó el pasado verano un contrato con el Pentágono valorado en hasta 200 millones de dólares, y su modelo Claude fue el primero en integrarse en redes clasificadas del Departamento de Defensa. No obstante, las negociaciones sobre el alcance de su uso han sido complejas durante meses.

Desde el entorno del Departamento de Defensa se sostiene que la necesidad de negociar caso por caso con la empresa resulta poco operativa y que el margen de interpretación sobre qué usos entran dentro de las categorías prohibidas genera fricciones. “Todo está sobre la mesa”, habría señalado la fuente, incluida la posibilidad de sustituir progresivamente la tecnología de Anthropic por la de otros proveedores.

El precedente de la operación en Venezuela

Las tensiones se habrían intensificado tras la utilización del modelo Claude en la operación que culminó con la captura del presidente venezolano Nicolás Maduro, a través de la colaboración de Anthropic con la firma de software Palantir.

Según la versión trasladada por la fuente oficial, un directivo de Anthropic se habría interesado por si su tecnología fue empleada durante el operativo, lo que fue interpretado en el Pentágono como un posible desacuerdo con su uso en acciones que implicaron enfrentamientos armados. La empresa ha negado que se produjera una conversación de ese tipo y ha asegurado que no discute operaciones concretas, sino únicamente cuestiones técnicas relacionadas con su política de uso.

Choque cultural y competencia tecnológica

Más allá de este episodio, fuentes de la Administración describen un choque cultural con la que consideran la empresa de IA más “ideológica” en lo relativo a los riesgos de la tecnología. Anthropic, fundada por antiguos directivos de OpenAI, ha hecho de la seguridad y la prevención de usos indebidos un eje central de su estrategia.

En paralelo, otras compañías como OpenAI (ChatGPT), Google (Gemini) o xAI (Grok) ya colaboran con el Pentágono en entornos no clasificados y han aceptado flexibilizar las restricciones que aplican a usuarios civiles. El Departamento de Defensa negocia ahora su entrada en redes clasificadas bajo el estándar de “todos los fines legales”. Según la fuente citada, una de estas empresas ya habría aceptado ese marco y las otras muestran mayor flexibilidad que Anthropic.

No obstante, en el propio Pentágono se reconoce que reemplazar a Claude no sería inmediato, dado que su modelo está especialmente adaptado a aplicaciones gubernamentales específicas.

Seguridad nacional y debate interno

Anthropic ha reiterado su compromiso con la seguridad nacional estadounidense y ha recordado que fue la primera empresa de IA avanzada en integrar sus modelos en redes clasificadas y en desarrollar versiones personalizadas para clientes del ámbito de defensa.

La controversia refleja el debate más amplio sobre el papel de la inteligencia artificial en el ámbito militar y los límites éticos de su utilización, en un contexto de creciente competencia tecnológica entre potencias y de presión del Departamento de Defensa por ampliar el acceso a herramientas avanzadas en escenarios estratégicos.