Anthropic lleva al Gobierno de EEUU a los tribunales tras ser señalada como riesgo para la cadena de suministro

Anthropic demanda al Gobierno de EEUU tras ser marcada como riesgo para la cadena de suministro, alegando daños irreparables y violación de la Primera Enmienda.

2 minutos

Anthropic presenta sus nuevos modelos de IA Claude 3. ANTHROPIC

Publicado

2 minutos

Anthropic ha interpuesto una demanda contra el Gobierno de Estados Unidos después de que el Departamento de Guerra catalogara a la 'startup' de IA como un riesgo para la cadena de suministro. La compañía responsable del chatbot 'Claude' ha tildado esta decisión de “sin precedentes e ilegal” y alerta de un daño “irreparable” para la empresa.

El pasado miércoles, el secretario de Guerra de EEUU, Pete Hegseth, remitió a Anthropic una misiva en la que confirmaba la designación de la firma como “riesgo en la cadena de suministro”. A partir de ese momento, el uso de las soluciones de la 'startup' en los sistemas del Departamento de Guerra pasa a considerarse una amenaza para dicha cadena.

La demanda, registrada ante el Tribunal del Distrito Norte de California, argumenta que “todas estas medidas sin precedentes”, entre ellas la directiva firmada por el presidente estadounidense, Donald Trump, y las actuaciones posteriores de las agencias federales, “están perjudicando irreparablemente a Anthropic”.

Según la compañía dirigida por Dario Amodei, sus contratos con la Administración federal están siendo rescindidos y se están cuestionando acuerdos presentes y futuros con clientes privados, “lo que pone en riesgo cientos de millones de dólares a corto plazo”.

Además de las pérdidas económicas, Anthropic sostiene que su imagen pública y los derechos fundamentales protegidos por la Primera Enmienda se encuentran bajo presión y que, sin una respuesta de los tribunales, estos perjuicios se intensificarán en las próximas semanas y meses.

En la demanda se afirma que “las medidas impugnadas fueron una represalia contra Anthropic por su discurso y otras actividades protegidas, violando la Primera Enmienda”, defendiendo que la Constitución de EEUU garantiza a la empresa el derecho a expresar sus puntos de vista, tanto ante la opinión pública como frente al propio Gobierno, que no está obligado a compartir esas opiniones ni a contratar sus servicios.

“Estas acciones no tienen precedentes y son ilegales. La Constitución no permite al Gobierno ejercer su enorme poder para castigar a una empresa por su libertad de expresión”, subraya la firma, que acude a la vía judicial como último mecanismo para salvaguardar sus derechos y frenar lo que considera una campaña de represalias ilegítima por parte del Ejecutivo.

En este contexto, la empresa de IA recuerda que su Política de Uso ha establecido siempre que 'Claude' no debe emplearse en dos ámbitos concretos: guerra autónoma letal y vigilancia masiva de estadounidenses.

“Anthropic nunca ha probado 'Claude' para esos usos. Actualmente, Anthropic no confía, por ejemplo, en que 'Claude' funcione de forma fiable o segura si se utiliza para apoyar la guerra autónoma letal”, insiste la compañía.

En una carta abierta difundida la semana pasada, Amodei señalaba que, incluso en el caso de que la designación del Departamento de Guerra resultase finalmente válida desde el punto de vista legal, la inmensa mayoría de los clientes de Anthropic no se verían afectados.

“La carta del Departamento tiene un alcance limitado, debido a que la ley pertinente (10 USC 3252) también lo es”, explicaba Amodei, quien sostiene que esta clasificación como riesgo para la cadena de suministro “no limita (ni puede limitar)” el uso de 'Claude' ni los acuerdos comerciales con Anthropic que no estén vinculados a contratos concretos con el Departamento de Guerra.

“Su objetivo es proteger al Gobierno, no sancionar a un proveedor”, concluía.