Ya hace tiempo de la aparición de una serie de espacios digitales, de acceso restringido, donde sus usuarios pueden adquirir productos y servicios a los que no pueden tener acceso de manera legal desde su lugar de residencia.
Mercado negro digital
Al igual que ocurrió con esta “web oscura” (dark net), hay organizaciones que diseñan inteligencias artificiales para cometer crímenes, ofreciendo en el mercado negro digital una serie de algoritmos con los que cometer ciberdelitos de toda clase. Delitos que ya no se limitan al simple fraude online, sino que pueden llegar a instruir sobre cómo elaborar una bomba biológica.
La IA ilícita puede servir para mejorar la eficacia de delitos que podemos calificar como de “tradicionales”, pero también el impacto de ilícitos -no conocidos hasta ahora- en las que el objetivo es la propia IA.
Con respecto al primer grupo, ya se ha detectado un incremento de ciberataques empleando IA. Como ejemplo de algunos de ellos, podemos destacar:
- Diseño de malware con IA: los cibercriminales usan la inteligencia artificial para programar software malicioso de una manera barata, sencilla y rápida, ahorrándose los costes de equipos humanos especializados y reduciendo enormemente los plazos que requiere el diseño de un software de esta naturaleza.
- Phishing basado en IA: los ataques de ingeniería social se perfeccionan con el uso de esta tecnología, que permite redactar de manera mucho más creíble, además de personalizar el ataque cuando éste se dirige a una persona o a un colectivo de personas determinado.
- Deepfakes: las ultrafalsificaciones, como así las denomina el nuevo Reglamento de Inteligencia Artificial, alcanzan una nueva dimensión con el uso de inteligencia artificial, pues esta permite diseñar contenidos falsos pero creíbles, tanto en formato imagen como de clonación de voz. Así las cosas, el fraude en línea y el robo de identidad -que siguen siendo incidentes muy habituales- adquieren ahora un mayor grado de sofisticación.
De otro lado, y con respecto a los ataques que tienen a la inteligencia artificial como objetivo, ya hemos sido testigos de cómo se puede manipular un sistema de inteligencia artificial para confundirla en el procesamiento de la información que se le facilita (inputs), y lograr que emita una decisión equivocada. Este sería el caso, por ejemplo, en el que se consigue que el algoritmo de visión artificial de un coche autónomo confunda señales de tráfico, interpretando la realidad de modo erróneo.
Hemos sido testigos de cómo se puede manipular un sistema de IA para confundirla en el procesamiento de la información que se le facilita (inputs) y lograr que emita una decisión equivocada
También los modelos sobre los que se construyen los sistemas de IA pueden sufrir vulnerabilidades que pueden ser explotadas por los cibercriminales. Entre los casos más probables podemos destacar el del robo de información (filtración de datos), donde la propia empresa propietaria de ChatGPT fue víctima hace unos meses.
Manipulación de información
Otro ejemplo sería el del envenenamiento de los datos usados para el entrenamiento de la IA (data poisoning), lo que provocaría que los datos de salida de la IA (outputs) fueran erróneos porque la información que se le ha facilitado es equívoca. En este caso, los ciberdelincuentes no necesitan sortear las medidas defensivas de la IA, sino que basta con manipular la información con la que la empresa entrena a la herramienta en cuestión.
Lógicamente, como medida de protección necesaria ante este escenario de amenazas, la Inteligencia Artificial ha comenzado a usarse como herramienta de detección, predicción y reacción temprana ante cualquier tipo de amenaza cibernética conocida, o que pueda crearse por una IA maliciosa.
Un escenario como el descrito nos lleva, en la práctica, a una guerra invisible y constante entre algoritmos (batallas de IA), donde el atacante analiza el sistema que pretende vulnerar para posteriormente lanzar su ataque. Mientras que la IA defensiva aprende de forma autónoma las técnicas de ataque para bloquear un eventual incidente. Tras ello, la IA atacante tratará de aprender de las reacciones de la IA atacada para mejorar sus capacidades. Y así sucesivamente.
Como medida de protección necesaria ante este escenario de amenazas, la Inteligencia Artificial ha comenzado a usarse como herramienta de detección, predicción y reacción temprana
Así las cosas, no debe sorprendernos que las fuerzas y cuerpos de seguridad del Estado, y el resto de entidades vinculadas a la seguridad y a la defensa nacional, hayan comenzado a prepararse para gestionar estas nuevas amenazas que, por culpa de un mal uso de una tecnología cada vez más avanzada, no sólo ponen en peligro la protección de bienes y personas, sino también los principios de la seguridad nacional y, es más, los fundamentos de la propia democracia.
SOBRE LA FIRMA Francisco Pérez Bes es socio en el área de Derecho Digital de Ecix Group y ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).
















