El nuevo poder militar basado en IA

En plena escalada bélica en Oriente Próximo, Francisco Pérez Bes, adjunto de la Agencia Española de Protección de Datos y experto en Derecho Digital, analiza en Demócrata la transformación del Pentágono hacia una doctrina “AI-first” donde la velocidad del algoritmo se impone a la prudencia normativa

5 minutos

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos

Comenta

Publicado

5 minutos

Más leídas

Sin haber llegado a ser testigo del poder actual de la IA, Albert Einstein dijo que “no sé con qué armas se luchará la Tercera Guerra Mundial, pero la Cuarta se luchará con palos y piedras.”

Hace unos días, el Pentágono anunciaba la rescisión de sus contratos con la empresa Anthropic, a la que acusaba de no aceptar sus condiciones para el uso de su Inteligencia Artificial. Mientras que dicha empresa afirmaba que las necesidades requeridas por la Administración Trump no cumplían con sus estándares éticos.

Inmediatamente, Open AI se apresuró a sustituir a Anthropic como proveedor de IA con fines militares y de seguridad nacional.

Aunque la noticia puede llamar nuestra atención, hay que recordar que Estados Unidos declaró -por primera vez y de forma explícita- que la inteligencia artificial pasaba a convertirse en el eje estructural de su política de seguridad nacional, consistente en su transformación en una fuerza bélica “AI-first” para poder, gracias a ello, recuperar la supremacía militar.

Para lograrlo, la última orden ejecutiva de Trump muestra a la IA como una arquitectura estratégica en sí misma, y no como una mera ventaja tecnológica de refuerzo de sus sistemas militares.

Como anécdota, diré, que la estrategia nacional española contra la proliferación de armas de destrucción masiva ya menciona a la inteligencia artificial como una de las tecnologías sensibles que pueden plantear retos para la lucha contra la expansión de armas de esta naturaleza.

Volviendo al documento, publicado en enero de 2026, aquel mantiene un constante tono vehemente y directo. Deja a un lado la prudencia y las posturas políticamente correctas (poco habituales, de otro lado), y vuelve a hablar en términos de guerra fría, donde conceptos como “carrera” o “mentalidad de guerra”, eran habituales.

Velocidad como doctrina

Sin embargo, la idea central de estas manifestaciones presidenciales es brutalmente clara: en la era de la inteligencia artificial, prima la velocidad sobre otras opciones. No se trata de tener mejores modelos de IA, sino de poder desplegarlos -y actualizarlos- antes, y de que aprendan más rápido que el adversario.

“Avanzar lento es un riesgo peor que el de equivocarse”, sostiene el Departamento de Defensa norteamericano. En este escenario, el clásico ciclo OODA —observar, orientar, decidir y actuar— se acelera al ritmo del algoritmo.

De la burocracia al “modo guerra”

El texto es igualmente explícito en su diagnóstico interno: los mayores obstáculos no son tecnológicos, sino administrativos.

Eso lleva a la percepción de que todo lo que ralentice la toma de decisiones (como obtener autorizaciones para operaciones, ejecutar bloqueos de información, o concluir procedimientos de contratación, por citar algunos) será considerado un obstáculo a remover, al considerarse que, en un escenario bélico y de urgencia permanente, debe sacrificarse la prudencia de la cultura organizativa en pro de la defensa nacional.

Este enfoque refuerza la coherencia interna del documento: en una carrera estructural, las restricciones externas se interpretan como potenciales desventajas competitivas.

Desde la óptica estadounidense, la alternativa —ceder liderazgo en IA militar— sería estratégicamente más peligrosa. En esa lógica, la aceleración no es una opción ideológica, sino una necesidad estructural.

El mensaje implícito es claro, pero no por ello menos peligroso: el enemigo no espera a que los formularios estén firmados.

Datos, cómputo y talento

La apuesta militar norteamericana se sostiene sobre tres pilares:

  1. Expansión masiva de infraestructura de cómputo, apoyada en inversión privada y en una colaboración directa con las grandes empresas de IA.
  2. Liberación agresiva de datos internos para una explotación militar algorítmica prácticamente sin límites.
  3. Captación acelerada de talento humano -especialmente técnico- incluyendo mecanismos extraordinarios de contratación pública.

El razonamiento es simple: sin datos explotables, sin capacidad de procesamiento y sin ingenieros que los integren en sistemas operativos, no podrá alcanzarse la dominancia real que persigue Estados Unidos.

La redefinición de la “IA responsable”

Uno de los puntos más polémicos es la reinterpretación del concepto de “IA responsable”. El documento publicado rechaza explícitamente cualquier restricción ética que limite aplicaciones militares, llegando a exigir que los contratos con proveedores eviten restricciones al uso de la tecnología, incluyendo -por ejemplo- cláusulas que autoricen el uso ilimitado de la IA como las que permiten su desarrollo o puesta a disposición “para cualquier fin lícito”.

Esto abre interrogantes complejos, tanto legales como éticos.

Sin embargo, el documento desplaza y sacrifica el principio de legalidad en favor de la velocidad de implementación de la IA con fines geoestratégicos.

¿Revolución o escalada?

Históricamente, las grandes transformaciones militares, como ocurrió con la aparición de las bombas nucleares o de la guerra de precisión, no fueron solo tecnológicas; fueron aspectos que reconfiguraron la estabilidad estratégica global.

Ahora, la apuesta por una “AI-native warfighting” podría tener un efecto similar.

"La automatización de decisiones tácticas puede comprimir los tiempos de reacción"

Y uno de los grandes problemas a resolver en esta nueva era, es que una carrera algorítmica permanente reduce el tiempo para la deliberación política. Si las máquinas aprenden más rápido que los diplomáticos negocian, el resultado puede ser una carrera armamentística silenciosa basada en algoritmos, más difícil de monitorizar que el enriquecimiento de uranio.

En escenarios de alta tensión (cada vez más numerosos, desgraciadamente), la automatización de decisiones tácticas puede comprimir los tiempos de reacción por debajo del umbral humano de deliberación estratégica.

Y ese desfase estructural puede generar zonas grises normativas, donde la brecha entre capacidad técnica y regulación se amplie hasta extremos que dificulten -aún más si cabe- las actuales estrategias de desescalada bélica.

2026 se perfila, así, como un punto de inflexión. Si la implementación cumple los objetivos fijados, Estados Unidos no solo habrá integrado inteligencia artificial en su aparato militar: habrá convertido la IA en el principio organizador de su poder estratégico en el siglo XXI.

Como dijo Carl Von Clausewitz a principios de 1800, en el fondo, la guerra es la continuación de la política por otros medios.

Sobre la firma

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos. Además, fue socio en el área de Derecho Digital de Ecix Group y es ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).