Dark AI

El experto en derechos digitales Francisco Pérez Bes profundiza en ejemplos de IA utilizada con finalidades criminales o para mejorar la eficacia o el impacto de delitos y cómo frenar ese avance

Ya hace tiempo de la aparición de una serie de espacios digitales, de acceso restringido, donde sus usuarios pueden adquirir productos y servicios a los que no pueden tener acceso de manera legal desde su lugar de residencia.

Mercado negro digital

Al igual que ocurrió con esta “web oscura” (dark net), hay organizaciones que diseñan inteligencias artificiales para cometer crímenes, ofreciendo en el mercado negro digital una serie de algoritmos con los que cometer ciberdelitos de toda clase. Delitos que ya no se limitan al simple fraude online, sino que pueden llegar a instruir sobre cómo elaborar una bomba biológica.

La IA ilícita puede servir para mejorar la eficacia de delitos que podemos calificar como de “tradicionales”, pero también el impacto de ilícitos -no conocidos hasta ahora- en las que el objetivo es la propia IA.

Con respecto al primer grupo, ya se ha detectado un incremento de ciberataques empleando IA. Como ejemplo de algunos de ellos, podemos destacar:

De otro lado, y con respecto a los ataques que tienen a la inteligencia artificial como objetivo, ya hemos sido testigos de cómo se puede manipular un sistema de inteligencia artificial para confundirla en el procesamiento de la información que se le facilita (inputs), y lograr que emita una decisión equivocada. Este sería el caso, por ejemplo, en el que se consigue que el algoritmo de visión artificial de un coche autónomo confunda señales de tráfico, interpretando la realidad de modo erróneo.

Hemos sido testigos de cómo se puede manipular un sistema de IA para confundirla en el procesamiento de la información que se le facilita (inputs) y lograr que emita una decisión equivocada

También los modelos sobre los que se construyen los sistemas de IA pueden sufrir vulnerabilidades que pueden ser explotadas por los cibercriminales. Entre los casos más probables podemos destacar el del robo de información (filtración de datos), donde la propia empresa propietaria de ChatGPT fue víctima hace unos meses.

Manipulación de información

Otro ejemplo sería el del envenenamiento de los datos usados para el entrenamiento de la IA (data poisoning), lo que provocaría que los datos de salida de la IA (outputs) fueran erróneos porque la información que se le ha facilitado es equívoca. En este caso, los ciberdelincuentes no necesitan sortear las medidas defensivas de la IA, sino que basta con manipular la información con la que la empresa entrena a la herramienta en cuestión.

Lógicamente, como medida de protección necesaria ante este escenario de amenazas, la Inteligencia Artificial ha comenzado a usarse como herramienta de detección, predicción y reacción temprana ante cualquier tipo de amenaza cibernética conocida, o que pueda crearse por una IA maliciosa.

Un escenario como el descrito nos lleva, en la práctica, a una guerra invisible y constante entre algoritmos (batallas de IA), donde el atacante analiza el sistema que pretende vulnerar para posteriormente lanzar su ataque. Mientras que la IA defensiva aprende de forma autónoma las técnicas de ataque para bloquear un eventual incidente. Tras ello, la IA atacante tratará de aprender de las reacciones de la IA atacada para mejorar sus capacidades. Y así sucesivamente.

Como medida de protección necesaria ante este escenario de amenazas, la Inteligencia Artificial ha comenzado a usarse como herramienta de detección, predicción y reacción temprana

Así las cosas, no debe sorprendernos que las fuerzas y cuerpos de seguridad del Estado, y el resto de entidades vinculadas a la seguridad y a la defensa nacional, hayan comenzado a prepararse para gestionar estas nuevas amenazas que, por culpa de un mal uso de una tecnología cada vez más avanzada, no sólo ponen en peligro la protección de bienes y personas, sino también los principios de la seguridad nacional y, es más, los fundamentos de la propia democracia.

SOBRE LA FIRMA
Francisco Pérez Bes es socio en el área de Derecho Digital de Ecix Group y ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).
Personalizar cookies