En las instituciones financieras europeas ha crecido un nuevo temor durante las últimas semanas. Junto con la inestabilidad ocasionada por el contexto geopolítico, los nuevos modelos tecnológicos están suponiendo un reto prácticamente inesperado para los supervisores bancarios. Por este motivo, en su reunión de este lunes, el Eurogrupo ha decidido dedicar un punto en la agenda a las implicaciones del sistema de Inteligencia Artificial Mythos de la estadounidense Anthropic.
España pide coorindación
A su llegada a la reunión del Eurogrupo, el vicepresidente y ministro de Economía, Carlos Cuerpo, ha expresado la necesidad de que el continente aborde las amenazas que suponen los nuevos modelos de inteligencia artificial en cuanto a su capacidad para encontrar fallas o puertas traseras en prácticamente “todas las instituciones”. “Las instituciones en Estados Unidos que están viendo cómo les afecta este modelo no solo se ciñen al sector financiero, sino que forman parte del conjunto de la economía”, ha explicado.
El número dos del Gobierno ha confesado que la evolución de estos modelos disruptivos se está produciendo a un ritmo mucho mayor del que se hubiera podido imaginar hace apenas unos meses, por lo que no descarta nuevas apariciones de sistemas similares en cuanto a sofisticación. Ante este escenario, la receta española pasa por un concepto clave: coordinación.
Noticia destacada
Qué es Mythos, la IA más avanzada de Anthropic que ha desatado el pánico en el Banco Central Europeo
2 minutos
Lo que los europeos buscan es cómo, con las herramientas existentes sobre la mesa, los Veintisiete pueden ser capaces de articular una estrategia mediante la cual las empresas sean capaces de protegerse a la vez que mantienen acceso a estos modelos. Después de la propuesta del supervisor jefe del Bundesbank alemán, Michael Theurer, en una entrevista con Reuters, de que los bancos europeos tuvieran acceso a los últimos desarrollos de Anthropic —entre ellos Mythos— de cara a protegerse frente a posibles ciberataques, Cuerpo ha defendido que “los Estados miembros no pueden ir cada uno por su cuenta de manera descoordinada a intentar tener acceso a este software”.

“No podemos ser, en este caso, una región de segunda a la hora de esperar a que nuestras empresas puedan defenderse de estos modelos y a que podamos tener acceso temprano”, ha sentenciado el ministro en Bruselas, con el objetivo de que ese acceso permita descubrir cuáles son las vulnerabilidades existentes en los sistemas actuales.
La primera respuesta europea
El Banco Central Europeo ya ha movido ficha y ha pedido a los socios de la eurozona que comiencen a analizar los riesgos asociados a estos nuevos modelos de inteligencia artificial. La preocupación se centra, principalmente, en cuestiones clave para la ciberseguridad, debido a la capacidad que tiene este tipo de tecnología para penetrar en vulnerabilidades de sistemas informáticos, lo que puede tener consecuencias críticas para la banca.
Noticia destacada
El BCE pide a los bancos prepararse ante los riesgos del nuevo modelo de IA de Anthropic
3 minutos
Desde Fráncfort, la institución estaría solicitando a las entidades un refuerzo de su preparación, que podría resumirse en la elaboración de nuevos planes de contingencia y en una evaluación más exhaustiva de sus vulnerabilidades ante posibles escenarios inciertos. Más que una respuesta extraordinaria, el organismo que preside Christine Lagarde está recabando información a través de su diálogo habitual con las entidades supervisadas.
El objetivo es garantizar hasta qué punto los bancos cuentan con mecanismos eficaces para responder a amenazas relacionadas con un uso negativo de las nuevas herramientas generadas por inteligencia artificial. En otras palabras, Bruselas y Fráncfort buscan adelantarse a un escenario en el que la tecnología deje de ser únicamente una aliada para convertirse también en un vector de riesgo sistémico.
¿Cómo funciona este modelo?
El nuevo producto de Anthropic está diseñado para ir un paso más allá en la seguridad digital mediante sistemas inéditos de inteligencia artificial. Esto ha despertado una ola de expectación en el sector, acompañada de una creciente preocupación por las posibles repercusiones en materia de seguridad y política internacional.
Lo que realmente ha encendido todas las alarmas es su capacidad para exponer vulnerabilidades en software, incluidas las conocidas como fallas de “día cero”. Se trata de errores desconocidos hasta el momento que pueden ser explotados antes de que exista una solución, lo que convierte a Mythos en una herramienta extremadamente potente dentro del ámbito de la ciberseguridad.
Este nivel de autonomía y capacidad de análisis habría llevado a la propia compañía a mantener el sistema fuera del acceso público, precisamente por los riesgos potenciales asociados a su uso indebido. La sofisticación del modelo no solo permite detectar debilidades, sino también simular escenarios complejos en los que dichas vulnerabilidades podrían ser explotadas de forma coordinada.
Noticia destacada
El nuevo modelo de IA de Anthropic enciende las alertas en Bruselas y el BCE
3 minutos
Todo ello ha provocado que, en Estados Unidos, el sistema haya sido clasificado por los servicios de defensa como un posible riesgo para la cadena de suministro tecnológica, dada su capacidad para identificar puntos débiles en infraestructuras críticas. Por su parte, el consejero delegado de Anthropic, Dario Amodei, ha defendido el enfoque de la compañía, subrayando que estas tecnologías deben desarrollarse bajo estrictos controles de seguridad y con límites claros de uso.
En este contexto, Europa se enfrenta a un dilema estratégico: cómo aprovechar el potencial de estas herramientas sin comprometer la estabilidad de su sistema financiero. La respuesta, según coinciden varias capitales, pasará inevitablemente por reforzar la cooperación entre Estados, impulsar la supervisión conjunta y acelerar la adaptación regulatoria a un entorno tecnológico que evoluciona a una velocidad sin precedentes.