¿Qué está pasando con Trump y Anthropic? Todas las claves

El choque por los límites en el uso militar y la vigilancia doméstica abre una batalla política y judicial sobre quién decide las reglas de la IA en EE.UU.

3 minutos

El logo de la empresa estadounidense Anthropic Europa Press/Contacto/Algi Febri Sugita

Publicado

Última actualización

3 minutos

El presidente de Estados Unidos, Donald Trump, ha ordenado a todas las agencias federales que cesen “inmediatamente” el uso de la tecnología de Anthropic, la empresa californiana creadora del modelo de inteligencia artificial Claude. La instrucción, difundida por el propio mandatario, no deja margen de interpretación: “No la necesitamos, no la queremos”, escribió, acusando además a la compañía de ser “izquierda radical”.

El detonante del veto es un enfrentamiento con el Departamento de Defensa. Según la Casa Blanca, Anthropic habría intentado imponer sus condiciones de servicio por encima del marco legal estadounidense, especialmente en dos ámbitos sensibles: la vigilancia masiva dentro del territorio nacional y el uso autónomo de sistemas armamentísticos. Para el Gobierno, esa postura suponía una intromisión en la autoridad federal para decidir cómo emplear herramientas tecnológicas en defensa y seguridad nacional.

La respuesta institucional ha sido contundente. El Pentágono ha catalogado a Anthropic como “riesgo para la cadena de suministro” en términos de seguridad nacional, una etiqueta que no solo excluye a la empresa del ecosistema federal, sino que puede afectar a su relación con contratistas y subcontratistas vinculados a Defensa.

¿Qué está en juego?

El conflicto va más allá de una disputa contractual. Anthropic defendía límites explícitos: prohibir la vigilancia masiva doméstica y evitar el uso plenamente autónomo de armas sin supervisión humana. La Administración Trump interpretó esos condicionantes como un intento de subordinar la política pública a los principios corporativos de la empresa.

La compañía ha anunciado que impugnará la decisión ante los tribunales y sostiene que estaba negociando salvaguardas responsables. A su juicio, penalizar esa postura envía un mensaje inquietante al sector tecnológico: que cualquier intento de fijar límites éticos en contratos gubernamentales puede convertirse en un coste político.

Mientras tanto, OpenAI ha ocupado el espacio que deja Anthropic. La empresa ha cerrado un acuerdo para desplegar sus modelos en redes clasificadas del Departamento de Defensa. Según la compañía, el contrato también incluye límites en materia de vigilancia y responsabilidad humana en el uso de la fuerza, pero integrados formalmente en el marco acordado con el Gobierno.

¿Qué es Anthropic?

Anthropic es una empresa estadounidense de inteligencia artificial fundada en 2021 por exdirectivos e investigadores de OpenAI, entre ellos Dario Amodei. Su objetivo declarado es desarrollar sistemas de IA avanzados con un fuerte enfoque en la seguridad, la alineación ética y el control humano. Su producto más conocido es Claude, un modelo de lenguaje de última generación diseñado para competir con ChatGPT y otros grandes sistemas generativos, pero incorporando mecanismos adicionales de supervisión y límites en su uso.

La compañía ha defendido desde su creación el concepto de “IA constitucional”, un enfoque que busca entrenar modelos siguiendo principios explícitos —inspirados en normas legales y derechos fundamentales— para reducir comportamientos dañinos o usos indebidos. Anthropic ha recibido inversiones multimillonarias de gigantes tecnológicos como Amazon y Google y se ha posicionado como uno de los principales actores en la carrera global por la inteligencia artificial avanzada, especialmente en sectores estratégicos como defensa, ciberseguridad y administración pública.

La batalla por la autoridad en la era de la IA

El episodio revela una tensión estructural en la nueva economía estratégica de la inteligencia artificial: no se trata solo de lo que los modelos pueden hacer, sino de quién fija sus límites. Trump ha optado por una respuesta política de máxima firmeza, reforzando el control gubernamental sobre la tecnología aplicada a defensa. Anthropic, por su parte, ha elegido la vía judicial para defender su posición.

En el trasfondo, la pugna redefine la relación entre el Estado y las grandes empresas tecnológicas en un terreno crítico para la seguridad nacional. Y deja claro que, en la carrera por dominar la IA, el poder regulatorio y contractual puede ser tan decisivo como la propia capacidad técnica.