El presidente de Estados Unidos, Donald Trump, ha ordenado a todas las agencias federales que dejen de emplear el software de la tecnológica Anthropic, incluidos sus modelos de Inteligencia Artificial, después de que la compañía se negara a retirar ciertas salvaguardas e incorporar en sus contratos posibles usos militares vinculados a la “vigilancia doméstica masiva” o al desarrollo de “armas totalmente autónomas”.
“No los necesitamos, no los queremos, y no haremos negocios con ellos de nuevo. Habrá un período de eliminación gradual de seis meses para agencias como el Departamento de Guerra que utilizan los productos de Anthropic en varios niveles”, ha manifestado el mandatario republicano en sus redes sociales, al anunciar el corte de relaciones con la firma.
En la misma línea, Trump ha urgido a Anthropic a colaborar con las autoridades y ha advertido de que, en caso contrario, la Administración recurrirá a “todo su poder” para aplicar la orden, con “graves consecuencias a nivel civil o penal” si la empresa intenta obstaculizarla.
El presidente ha cargado duramente contra la compañía al afirmar que “los locos de la izquierda en Anthropic han cometido un error desastroso al tratar de forzar al Departamento de Guerra y obligarlo a obedecer sus términos de servicio en lugar de nuestra Constitución. Su egoísmo pone en riesgo vidas estadounidenses, a nuestras tropas y también nuestra Seguridad Nacional”.
Choque con el Pentágono por las restricciones de uso
La decisión de Trump llega tras la negativa del consejero delegado de Anthropic, Dario Amodei, a aceptar las exigencias del Departamento de Defensa sobre el levantamiento de límites al uso de su modelo de IA Claude. Amodei defendió que la empresa prefería renunciar a colaborar con el Pentágono antes que permitir aplicaciones de su tecnología que puedan “socavar, en lugar de defender, los valores democráticos”.
“Apoyamos el uso de la IA para misiones de Inteligencia extranjera y contrainteligencia, pero utilizar estos sistemas para vigilancia doméstica masiva es incompatible con los valores democráticos”, subrayó en un comunicado, en el que advirtió de que esta práctica supondría un “riesgo grave” para las “libertades fundamentales”.
El directivo recalcó igualmente que la compañía no entregará ningún producto que pueda poner en peligro “a combatientes y civiles estadounidenses”. “Hemos ofrecido trabajar directamente con el Departamento de Guerra en I+D para mejorar la fiabilidad de estos sistemas, pero no han aceptado esta oferta”, añadió, al denunciar la falta de acuerdo con las autoridades militares.
“El Departamento de Guerra ha declarado que solo contratará a empresas de IA que accedan a 'cualquier uso legal' (de estas herramientas) y eliminen las salvaguardas en los casos mencionados anteriormente”, criticó Amodei, al explicar el motivo de la ruptura.
Postura del Pentágono y tensiones con la Administración
Por su parte, el portavoz del Pentágono, Sean Parnell, afirmó en redes sociales que el Departamento no tiene intención de llevar a cabo “vigilancia doméstica masiva o desplegar armas autónomas”. No obstante, defendió la necesidad de retirar ciertas restricciones para que el Gobierno pueda emplear estas tecnologías con cualquier “fin lícito”, argumentando que las compañías privadas no pueden determinar de forma unilateral cómo se usan sus herramientas por parte del Estado.
La Administración Trump ya había amenazado con catalogar a Anthropic como un riesgo para la cadena de suministro de Estados Unidos. En paralelo, el Departamento de Defensa anunció en julio un contrato por 200 millones de dólares para impulsar el desarrollo de la IA en el Ejército en colaboración con Anthropic, Google, OpenAI y xAI, un acuerdo ahora en entredicho tras el veto presidencial.
Según publicó el diario ‘The Wall Street Journal’, el Ejército estadounidense llegó a utilizar Claude en una operación destinada a capturar al presidente Nicolás Maduro en Venezuela, pese a que las políticas de Anthropic prohíben expresamente emplear su tecnología con fines violentos, para la creación de armamento o para tareas de vigilancia sobre la población.