La Fiscalía de Almería mantiene abierta una investigación para aclarar posibles delitos de pornografía infantil generada con inteligencia artificial (IA) que afectarían a 18 alumnas de un instituto de la provincia, cuyas imágenes habrían sido manipuladas digitalmente mediante una aplicación para simular que estaban desnudas.
Así lo ha explicado el fiscal delegado provincial de Criminalidad Informática y de Tutela Penal de la Igualdad y Delitos de Odio, David Calvo, durante su intervención en las Jornadas “Inteligencia artificial y derechos fundamentales”, organizadas por la Guardia Civil junto con la Facultad de Derecho y la Escuela Superior de Ingeniería (ESI) de la UAL.
Calvo ha analizado la respuesta del derecho penal frente a amenazas como las ‘deepfakes’ y la creación de identidades sintéticas, que ponen en cuestión la autenticidad de las imágenes y dañan el honor de las personas afectadas al presentar contenidos ficticios con un alto grado de apariencia real.
En este contexto, ha subrayado que en el caso que se investiga se habría recurrido a una aplicación que facilita, de forma muy accesible, el desnudo virtual de las víctimas a partir de fotografías corrientes. Según ha indicado, la herramienta, utilizada mayoritariamente por hombres, genera unos “3.900 desnudos de mujeres al día”, y en el 90 por ciento de los casos sus usuarios también “generan escenas sexuales completas” con ella.
El fiscal ha precisado que estas conductas pueden encajar en un delito de pornografía infantil virtual cuando se emplean imágenes de menores, o en un delito de pornografía si se trata de adultos, siempre que el resultado tenga un carácter “realista” conforme a la normativa actual, ya que con esas instantáneas se lesiona un bien jurídico protegido del mismo modo que si fueran escenas reales.
En la sesión de la mañana también ha intervenido la vicedecana de la Facultad de Derecho, María José Cazorla González, quien ha abordado la gestión del riesgo y el consentimiento en el tratamiento de datos en su ponencia sobre la defensa de los derechos fundamentales.
Límites éticos y legales de la inteligencia artificial
El encuentro ha congregado a especialistas de las Fuerzas y Cuerpos de Seguridad del Estado, del ámbito judicial y del sector de la ingeniería para debatir sobre los límites éticos y legales de la tecnología, según ha informado la UAL en una nota.
La jornada, celebrada en formato presencial y online, nace con la finalidad de reforzar la confianza de la ciudadanía y examinar el papel clave de las Fuerzas y Cuerpos de Seguridad del Estado (FCSE) en la aplicación responsable y ética de la IA.
En la apertura se ha remarcado la urgencia de actualizar conocimientos sobre una tecnología que evoluciona a gran velocidad, garantizando en todo momento la seguridad ciudadana y el cumplimiento de la legalidad vigente.
El rector de la UAL, José J. Céspedes, ha subrayado que la inteligencia artificial “está suponiendo un cambio radical de paradigma antes, incluso, de que hayamos tomado plena conciencia de ello” dado que “se ha instalado a velocidad de vértigo” en la vida cotidiana.
“Es necesario regular para evitar consecuencias indeseadas de su uso con fines delictivos y para proteger la privacidad, los derechos fundamentales de las personas y, especialmente, la protección de los más vulnerables, como son los menores”, ha estimado.
Por su parte, el coronel de la Guardia Civil de Almería, José Antonio Carvajal, ha advertido de que la irrupción de la IA configura un nuevo escenario tecnológico en el que “ya no es necesaria la presencia física para actuar en cualquier parte del mundo, lo que obliga a las instituciones a una adaptación constante”.
En esta línea, ha valorado el enfoque de las jornadas al examinar el uso malicioso de estas herramientas, como las ‘deepfakes’ o los fraudes basados en clonación de voz, así como la necesidad de impulsar “un uso ético y responsable que establezca límites legales claros para proteger la privacidad, la intimidad y el honor de los ciudadanos”.
“La IA debe ser una aliada en la prevención e investigación mediante el análisis proactivo de datos y la detección de amenazas, siempre bajo el marco del respeto a los derechos fundamentales”, ha estimado.
El subdelegado del Gobierno en Almería, José María Martín, ha invitado a reflexionar sobre “uno de los grandes desafíos de nuestro tiempo”. En este sentido, ha resaltado la reciente puesta en marcha de “Hodio”, una nueva herramienta impulsada por el Gobierno para afrontar la huella del odio y la polarización.
Según ha indicado, este sistema “permitirá medir y analizar de forma sistemática la presencia y la evolución de los discursos de odio en las redes sociales”.
“Debemos ser capaces de medir la ‘huella del odio’ en el espacio digital para poder combatirlo con mayor eficacia, porque el odio que circula por las redes, alimentado por bots, termina muchas veces contaminando el debate público y deteriorando la convivencia”, ha estimado el subdelegado.
La sesión de tarde se centra en la inteligencia predictiva, con un debate sobre las “buenas prácticas” para evitar sesgos algorítmicos durante la investigación criminal. Entre los ponentes figuran el coordinador del Grado en IA y Ciberseguridad de la UAL, Antonio J. Fernández García, y el teniente coronel de la Guardia Civil y experto de la Jefatura de Información de la DGGC y del sector privado (Securitas Innovación), José Luis Mayorga Martín.