El Parlamento Europeo respalda vetar deepfakes sexuales y aplazar los límites a la IA de alto riesgo en la UE

La Eurocámara impulsa el veto a deepfakes sexuales y propone aplazar la aplicación de las normas más estrictas para sistemas de IA de alto riesgo.

3 minutos

El Parlamento Europeo respalda vetar deepfakes sexuales y aplazar los límites a la IA de alto riesgo en la UE

El Parlamento Europeo respalda vetar deepfakes sexuales y aplazar los límites a la IA de alto riesgo en la UE

Comenta

Publicado

3 minutos

Más leídas

El pleno del Parlamento Europeo ha decidido este jueves respaldar que la revisión y simplificación de las normas que regulan el uso de la Inteligencia Artificial (IA) en la Unión Europea incorpore cambios para prohibir los desnudos falsos o 'deepfakes' de carácter sexual, al tiempo que se muestra partidario de aplazar, tal y como reclaman Bruselas y los Veintisiete, la entrada en vigor de las restricciones que afectarán a los sistemas considerados de "alto riesgo".

Con 569 votos a favor, 45 en contra y 23 abstenciones, los eurodiputados reunidos en Bruselas avalan así diferir la aplicación de algunas disposiciones con el fin de "garantizar" que las empresas dispongan del margen suficiente para adaptarse a las nuevas obligaciones y estar listas para respetar los límites cuando el reglamento empiece a aplicarse.

La Comisión Europea había planteado en su propuesta de reforma un aplazamiento de 16 meses, hasta diciembre de 2027, para la entrada en vigor de las restricciones dirigidas a las categorías de alto riesgo, mientras que el Parlamento aboga por ampliar ese periodo con el objetivo de "garantizar la previsibilidad y la seguridad jurídica".

En este contexto, los eurodiputados proponen que los límites para los sistemas recogidos específicamente por el reglamento actual —entre ellos los que emplean datos biométricos y los que se usan en infraestructuras críticas, educación, empleo, servicios esenciales, aplicación de la ley, justicia y control de fronteras— se retrasen hasta el 2 de diciembre de 2027. Además, fijan una segunda fecha, el 2 de agosto de 2028, para los sistemas cubiertos por la legislación sectorial de la UE en materia de seguridad y vigilancia del mercado. El mandato del Parlamento europeo también plantea conceder a los proveedores hasta el 2 de noviembre de 2026 para ajustarse a las normas sobre marca de agua en audio, imagen, vídeo o texto generado por IA que permita identificar su origen.

El Consejo, que representa a los gobiernos y con el que la Eurocámara deberá negociar ahora la versión definitiva de la simplificación del marco regulatorio, defiende igualmente en su mandato un calendario escalonado, con plazos diferenciados para los sistemas autónomos (diciembre de 2027) y los integrados (agosto de 2028).

En relación con las imágenes sexualizadas creadas sin permiso, los eurodiputados quieren introducir un nuevo veto a los sistemas que utilizan IA para generar o manipular imágenes sexualmente explícitas o íntimas que se asemejen a una persona real identificable sin el consentimiento de esta; no obstante, quedarían excluidos de la prohibición aquellos sistemas que apliquen medidas de seguridad "eficaces" que impidan a los usuarios producir este tipo de contenidos.

La Eurocámara se muestra asimismo a favor de autorizar que los proveedores de servicios puedan tratar datos personales con el objetivo de detectar y corregir sesgos en los sistemas de IA, siempre que se incorporen salvaguardas que garanticen que este tratamiento sólo se realiza cuando resulte estrictamente imprescindible.

Con el fin de facilitar que las empresas de la UE sigan creciendo una vez que dejan de ser pequeñas y medianas empresas, condición que les da acceso a determinadas medidas de apoyo, los eurodiputados respaldan la ampliación de estas ayudas a las pequeñas empresas de mediana capitalización.

Por último, para evitar solapamientos entre la nueva ley de inteligencia artificial y las normas sectoriales sobre seguridad de los productos, el Parlamento propone que las obligaciones previstas en la Ley de IA puedan ser menos estrictas para aquellos productos que ya estén cubiertos por legislación específica, como es el caso de los dispositivos médicos, los equipos radioeléctricos o los juguetes sujetos a normas de seguridad.