La carrera por la inteligencia artificial (IA) ha encontrado a su protagonista más polémico: Anthropic, el laboratorio que desarrolló el modelo Claude, se ha consolidado como líder tecnológico mundial, con una valoración de 380.000 millones de dólares, pero ahora se enfrenta a un pulso histórico con el Pentágono y la Administración Trump.
Según revelan entrevistas exclusivas del diario TIME, la crisis estalló tras el uso de Claude en la captura del presidente venezolano Nicolás Maduro en enero. Aunque Anthropic apoyaba el despliegue de su IA para misiones militares, la compañía se negó a permitir que Claude fuera utilizado en armas autónomas o para vigilancia masiva de ciudadanos estadounidenses, citando riesgos éticos y legales.
Etiqueta de riesgo y demanda legal
El secretario de Defensa, Pete Hegseth, declaró que el modelo debía ser completamente utilizable para “luchar guerras”, lo que llevó a que Anthropic fuera etiquetada como un riesgo para la cadena de suministro en contratos gubernamentales. Ante la decisión, la compañía demandó al Gobierno para revertir la designación, mientras millones de usuarios abandonaban alternativas rivales y adoptaban Claude a un ritmo récord.
El CEO Dario Amodei defendió la postura de la empresa en un comunicado interno: “No hemos dado elogios dictatoriales a Trump. Hemos mantenido nuestras líneas rojas con integridad y no hemos participado en teatro de seguridad para agradar a la Administración”. La compañía sostiene que sus medidas de seguridad y ética son esenciales para un despliegue responsable de IA que podría cambiar radicalmente la sociedad y la economía.
Avances tecnológicos vertiginosos
Anthropic no solo enfrenta cuestiones legales y políticas, sino también desafíos internos. Su herramienta Claude Code ya genera la mayoría del código para entrenar futuros modelos de IA, acelerando el desarrollo a un ritmo que preocupa incluso a sus propios expertos: “Estamos conduciendo por un camino de acantilado a 75 km/h en lugar de 25. Un error podría ser fatal”, explica Dave Orr, jefe de seguridad de la compañía.
La empresa combina avances tecnológicos disruptivos con un compromiso ético basado en el altruismo efectivo, donando gran parte de sus ganancias y entrenando a sus modelos para navegar dilemas morales complejos. Pero incluso mientras predican precaución, Anthropic impulsa la IA hacia nuevas fronteras, con implicaciones profundas para el empleo, la seguridad y la gobernanza global.
Analistas y empleados coinciden en que el enfrentamiento con la Administración podría redefinir la relación entre tecnología privada y seguridad nacional. “Esto podría disuadir a otras compañías de colaborar con el Pentágono o llevarlas al extranjero”, advierte Dean Ball, exasesor del plan de IA de Trump.