Los europeos acuerdan prohibir los “deepfakes” sexuales generados con IA

La reforma de la normativa europea busca frenar los contenidos íntimos no consentidos y el material de abuso sexual infantil generado con inteligencia artificial

4 minutos

On 30 June 2025, Henna Virkkunen, Executive Vice-President of the European Commission for Tech Sovereignty, Security and Democracy, gives a press point on next steps for AI Gigafactories.

Publicado

Última actualización

4 minutos

Los Veintisiete continúan inmersos en la tramitación de los paquetes de simplificación conocidos en la jerga comunitaria como “Ómnibus”. Este viernes, el Consejo ha fijado su posición sobre la reforma de la normativa relativa a la Inteligencia Artificial. Durante este proceso, los Estados han aprovechado para introducir en los dosieres legislativos una medida que hasta ahora no estaba contemplada: acabar con herramientas generativas como Grok.

En concreto, la reunión de embajadores ha pactado añadir una nueva disposición en la Ley de Inteligencia Artificial que prohibiría la generación de contenido sexual e íntimo no consentido, así como material de abuso sexual infantil. Además, el texto que saldrá del Consejo para llegar a las negociaciones en trílogo modifica el plazo fijo para la aplicación tardía de las normas de alto riesgo. Los países quieren que estas fechas sean el 2 de diciembre de 2027 para los sistemas independientes de IA de alto riesgo y el 2 de agosto de 2028 para los sistemas de IA de alto riesgo integrados en los productos.

La presidencia chipriota defiende la urgencia de la reforma

Desde la presidencia chipriota del Consejo aseguran que este asunto era de “máxima prioridad” y celebran el hecho de que los “Estados miembros compartan el sentido de urgencia”. “La racionalización de las reglas de la IA es esencial para garantizar la soberanía digital de la UE”, ha afirmado la viceministra de Asuntos Europeos de Chipre, Marilena Raouna. En su delegación apuntan a que la propuesta aportará mayor seguridad jurídica, hará que las normas sean más proporcionadas y garantizará una aplicación más armonizada en todos los Estados miembros.

Además, el Consejo ha establecido la obligación de que los proveedores registren los sistemas de Inteligencia Artificial en la base de datos de la Unión Europea para los sistemas de alto riesgo, en los casos en los que se considere que sus sistemas están exentos de la clasificación como de alto riesgo. También se ha propuesto posponer el plazo para el establecimiento de espacios de pruebas regulatorios por parte de las autoridades competentes hasta el 2 de diciembre del próximo año.

Los Estados también quieren que la Comisión Europea proporcione orientación para ayudar a los operadores económicos de estos sistemas a cumplir con los requisitos de alto riesgo de la ley de IA, de manera que minimice la carga de cumplimiento.

El Ómnibus digital para simplificar la regulación

En noviembre, el Ejecutivo comunitario presentó el “Ómnibus Digital”, que está compuesto por dos propuestas: una de ellas encaminada a simplificar el marco legislativo digital y la otra con el objetivo de reducir las cargas en la aplicación de la regulación sobre la IA.

Ahora darán comienzo las negociaciones con los grupos de trabajo del Parlamento Europeo. Fuentes chipriotas afirman que están “listos para trabajar con nuestros colegisladores en nuestros esfuerzos conjuntos para apoyar a nuestras empresas, facilitar la innovación y construir una Europa más competitiva”.

Tras varios debates, la Eurocámara se muestra partidaria de vetar el uso de estas herramientas para la creación de contenidos sexuales. La eurodiputada socialista Laura Ballarín celebró en Demócrata el hecho de que la Unión Europea “empiece a responder jurídicamente a fenómenos como la difusión de imágenes manipuladas que afectan de forma desproporcionada a las mujeres”.

Noticia destacada

Análisis y Opinión

Deepfakes sexuales: Nueva forma de violencia contra la mujer

2 minutos

En esta discusión, populares y socialistas parecen estar de acuerdo, tal y como la eurodiputada Rosa Estarás reconoce: “La creación y difusión de imágenes íntimas sin consentimiento, incluidos los deepfakes sexuales generados por IA, ya constituyen un delito. La cuestión no es si existe la ley, sino si se aplica con determinación”.

Bruselas investiga a X por su sistema Grok

En enero, Bruselas dio un nuevo paso en su ofensiva digital contra X. Esta vez, el Ejecutivo comunitario inició una nueva investigación contra el gigante tecnológico propiedad de Elon Musk por su servicio de inteligencia artificial Grok, centrada en la gestión de sus sistemas de recomendación y en la generación de contenido.

El procedimiento analizará si la compañía ha examinado y solucionado adecuadamente los riesgos relacionados con la difusión de contenido ilegal en la Unión Europea. Entre los elementos que se estudiarán figura la propagación de imágenes sexualmente explícitas manipuladas, así como cualquier otro contenido que pueda constituir material de abuso sexual infantil.

Desde el departamento de la vicepresidenta ejecutiva Henna Virkkunen subrayaban que las falsificaciones sexuales no consentidas de mujeres y menores constituyen una forma de degradación violenta e inaceptable.

«Con esta investigación determinaremos si X cumplió con sus obligaciones legales en virtud de la Ley de Servicios Digitales (DSA) o si trató los derechos de los ciudadanos europeos, incluidos los de mujeres y niños, como daños colaterales de su servicio», afirmó la responsable del área digital del Ejecutivo comunitario.

Cambios en alfabetización digital, sesgos y marcado de contenidos

Con la nueva normativa en marcha, se transformará la obligación no especificada que tenían los operadores respecto a la alfabetización en IA en una obligación para la Comisión y los Estados miembros.

En materia de detección de sesgos, que forma parte de la Ley de IA que entró en vigor durante el verano de 2024, se facilitará el cumplimiento de las leyes de protección de datos al permitir a los proveedores y usuarios de todos los sistemas y modelos de IA procesar categorías especiales de datos personales para garantizar la detección y corrección de sesgos, siempre que se apliquen salvaguardas adecuadas. Esta excepción solo se aplica si la detección de sesgos no se puede cumplir efectivamente mediante el procesamiento de otros datos.

Además, se va a introducir un período de gracia transitorio de un año para el cumplimiento de la obligación de “watermarking” (marcado o detección) para los sistemas de IA generativa que fueron puestos en el mercado antes de que estas obligaciones se hicieran aplicables.

La Comisión plantea la posibilidad de ofrecer ese mismo período de gracia de un año para el cumplimiento de la obligación de “watermarking” para los sistemas de IA generativa que ya estaban en el mercado antes de que estas normas entraran en vigor.