When there’s something strange in the neighborhood, who are you gonna call? Así decía la conocida melodía de la película ghostbusters que, allá por el año 1984, mostraba un escenario ficticio en el que espíritus y fantasmas aparecían en la ciudad de Nueva York.
40 años después la humanidad ha puesto su futuro en manos de la IA, en cuanto tecnología cuya velocidad de evolución está haciendo que su adopción sea (o parezca) precipitada, hasta el punto de no dejarnos pensar en los potenciales riesgos que puede traer consigo su adopción global y generalizada.
IA y grandes potencias
Como es sabido, la carrera por la IA está en las agendas políticas y militares de las grandes potencias, y en las económicas de las grandes corporaciones. Incluso ha dado pie a que muchos de estos territorios (estamos hablando de Estados Unidos, China o Europa, entre otros) se hayan visto obligados a avanzar en el camino de la regulación.
La carrera por la IA está en las agendas políticas y militares de las grandes potencias, y en las económicas de las grandes corporaciones
Quizás lo hagan movidos por el temor geopolítico a que sus rivales en el terreno de juego internacional avancen de forma más veloz. Menos probable es que les mueva una preocupación real de que un uso inadecuado de la inteligencia artificial pueda suponer una clara amenaza para los derechos y libertades fundamentales de las personas.
Con independencia de ello, ya ha habido voces destacadas que alertaron públicamente acerca de los riesgos y peligros que trae consigo un desarrollo incontrolado de la IA, incluso prediciendo el fin de la humanidad si no se lograba crear un sistema de control y supervisión eficaz de esta tecnología. Mensajes apocalípticos que, probablemente no se habían vuelto a escuchar desde los comienzos de la carrera armamentística nuclear.
En este sentido, a principios del mes de septiembre de 2024, un grupo de influyentes científicos especializados en Inteligencia Artificial expresaron su preocupación por la posibilidad de que la tecnología que ayudaron a crear pudiera, en cuestión de años, superar las capacidades de sus creadores y alertaron de que «la pérdida de control humano o el uso malintencionado de estos sistemas de inteligencia artificial podrían provocar resultados catastróficos para toda la humanidad».
Ahora bien, estas afirmaciones no deben desviar nuestra atención del hecho de que si un sistema de inteligencia artificial desarrollara hoy unas capacidades de mejora autónoma, no existe ningún plan para frenarlo.
Seguridad e IA
En esta línea, hace unos días tuvo lugar la tercera edición de los Diálogos Internacionales sobre Seguridad de la IA, que organiza el Safe AI Forum y en los que participan algunos de los principales científicos e investigadores en esta materia.
Con independencia de ello, ya ha habido voces destacadas que alertaron públicamente acerca de los riesgos y peligros que trae consigo un desarrollo incontrolado de la IA
Las conclusiones alcanzadas en estos diálogos se recogieron en una declaración requiriendo a los distintos estados y gobiernos a que conozcan y se preocupen de los potenciales riesgos que, para la humanidad, pueden plantear los desarrollos tecnológicos que tienen lugar en sus países. Esta declaración fue firmada, entre otros, por representantes norteamericanos y chinos, países que ya han aprobado importantes regulaciones sobre esta materia.
De los citados diálogos antes citados se pueden extraer 3 principales necesidades:
- Preparación ante emergencias
- Garantías de seguridad
- Verificación
1.- Preparación ante emergencias
En cuanto a la primera, se propone suscribir acuerdos internacionales de coordinación ante emergencias globales provocadas por la IA. A través de estos acuerdos, las autoridades nacionales de seguridad de la IA se coordinarían y comprometerían a llevar a cabo actuaciones reactivas conjuntas y desarrollar planes de contingencia.
En el fondo se reconoce la posibilidad de que surjan riesgos significativos de la IA avanzada de forma rápida e inesperada, lo que exige una respuesta mundial coordinada.
2.- Seguridad
En lo que respecta a las garantías de seguridad, se propone que las autoridades nacionales de seguridad de la IA exijan a los desarrolladores ciertas garantías antes de desplegar modelos cuyas capacidades puedan superar determinados umbrales especificados. También debería requerirse supervisión posterior al despliegue además de exigir auditorías independientes, lo que añadiría un nivel adicional de escrutinio y responsabilidad al proceso.
3.- Verificación
Por último, se propone una supervisión internacional de los desarrollos, mediante la creación de un marco de control, sólido e imparcial, con el que evaluar y validar las medidas de seguridad de la IA a escala internacional.
A la vista de lo anterior podemos concluir que Europa y su criticado Reglamento de IA no iba desencaminada, en particular en lo concerniente a la regulación de posibles y probables amenazas planteadas por la IA.
Es difícil que el futuro se parezca al de cazafantasmas. Más probable es que se parezca al de Terminator. En cualquier caso, en caso de emergencia global, ¿a quién llamaremos?
SOBRE LA FIRMA Francisco Pérez Bes es socio en el área de Derecho Digital de Ecix Group y ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).