Trump acusa a Anthropic de imponer condiciones inasumibles tras vetar el uso militar de su IA

Trump declara a Anthropic riesgo para la seguridad nacional por negarse a permitir ciertos usos militares de su IA y endurece la ruptura de contratos.

2 minutos

El secretario de Defensa de EEUU, Pete Hegseth, en un acto por la muerte de militares estadounidenses en la guerra con Irán celebrado en la base militar Príncipe Sultán, en Arabia Saudí Europa Press/Contacto/Saquan Stimpson

Publicado

2 minutos

El Gobierno de Estados Unidos ha acusado este martes a Anthropic de fijar “términos de servicio” para su inteligencia artificial “inaceptables” para la Administración de Donald Trump. Así lo sostiene en un escrito presentado ante la Justicia, en el que defiende su decisión de declarar a la compañía un “riesgo para la cadena de suministro y la Seguridad Nacional” después de que la empresa se negara a permitir determinados usos militares de su tecnología y demandara al Ejecutivo por dicha designación.

“Por razones de seguridad nacional, los términos de servicio de la tecnología de inteligencia artificial de la demandante Anthropic PBC se han vuelto inaceptables para el Poder Ejecutivo”, ha manifestado el Departamento de Justicia de Estados Unidos, que actúa en representación del Gobierno, en un documento judicial citado por la agencia Bloomberg.

En ese escrito, los abogados de la Administración de Donald Trump reprochan a la compañía su postura durante las conversaciones que el Departamento de Defensa mantuvo a comienzos de 2026. En esas negociaciones, el Pentágono trató de incorporar a su contrato una cláusula que le permitiera utilizar la tecnología de Anthropic para cualquier propósito lícito, pero la firma rechazó dicha modificación amparándose en sus políticas de uso de Claude.

Como consecuencia, el Departamento de Justicia argumenta que “el comportamiento de Anthropic en general llevó al Departamento (de Defensa) a cuestionar si Anthropic representaba un socio de confianza con el que el Departamento estuviera dispuesto a contratar en este ámbito tan sensible”, según se recoge en el documento remitido al tribunal.

El equipo jurídico del Ejecutivo también refleja la inquietud del Pentágono ante la posibilidad de que mantener el acceso de la tecnológica a sus sistemas técnicos y operativos de combate “introdujera un riesgo inaceptable” en las cadenas de suministro del Departamento de Defensa, dada la naturaleza crítica de estas infraestructuras.

“Después de todo, los sistemas de IA son extremadamente vulnerables a la manipulación, y Anthropic podría intentar desactivar su tecnología o alterar preventivamente el comportamiento de su modelo antes o durante las operaciones de combate en curso, si Anthropic --a su discreción-- considera que se están traspasando sus límites corporativos”, han señalado los letrados del Gobierno en su alegato.

Anthropic, responsable del chatbot Claude, acudió a los tribunales para solicitar una orden judicial preliminar que frene la entrada en vigor de la prohibición dictada por el Departamento de Defensa mientras se resuelve el conflicto legal de fondo entre las partes.

La medida fue anunciada en redes sociales por el jefe del Pentágono, Pete Hegseth, y califica a la empresa como un “riesgo para la cadena de suministro y la Seguridad Nacional” de Estados Unidos debido a la negativa de sus responsables a permitir el uso de su IA para fines militares vinculados a la “vigilancia doméstica masiva” o al desarrollo de “armas totalmente autónomas”.

El anuncio implica de forma inmediata que todas las compañías que mantengan contratos con las Fuerzas Armadas estadounidenses deberán poner fin a cualquier relación comercial con Anthropic. El secretario de Defensa describió la decisión como “definitiva”, aunque abrió la puerta a una desconexión progresiva, con un plazo máximo de seis meses, para “permitir una transición fluida hacia un servicio mejor y más patriótico”.