El Parlamento Europeo, a favor de prohibir el acceso de menores a redes sociales

Bruselas quiere limitar el acceso a plataformas a los menores de dieciséis años, a menos que lo autoricen los progenitores y nunca a los que no hayan cumplido trece años. Además, se persigue imponer responsabilidades directas a las empresas digitales

EP Plenary session - Position on the proposed plan and EU engagement towards a just and lasting peace for Ukraine

La semana en la que el Congreso de los Diputados ha dado un acelerón a la tramitación de la Ley de Protección de Menores en Red, el Pleno de la Eurocámara ha aprobado un informe que critica abiertamente la incapacidad de las plataformas en línea para proteger a los menores. Lo que se busca con el texto es avisar de los riesgos que conllevan estos servicios para la adicción, la salud mental y la exposición a contenidos ilegales.

Lo que viene a significar la votación es una especie de “aval” a los trabajos que la Comisión Europea está llevando a cabo para impulsar sistemas de garantía de edad que protejan la privacidad. En este proceso, Bruselas considera que deberán ser las empresas las que asuman la responsabilidad de que sus servicios sean seguros por diseño.

En este debate, el Parlamento Europeo se ha posicionado a favor de establecer una edad mínima de 16 años en todo el continente para poder registrarse en redes sociales, plataformas de vídeos y aplicaciones de IA. Todo ello, salvo autorización de los padres, y en cualquier caso nunca por debajo de los 13 años.

Además, Estrasburgo presiona para que el Ejecutivo comunitario ejerza las competencias que le pertenecen en virtud de la Ley de Servicios Digitales (DSA), que incluye la imposición de multas o incluso la prohibición de sitios web que pongan en peligro a los menores.

¿De quién es la responsabilidad?

En relación con las evaluaciones de riesgo, el texto aprobado expresa su preocupación porque las investigaciones a aquellas plataformas en línea de muy gran tamaño sobre la seguridad de los menores no sean adecuadas o carezcan de supervisión independiente. Por este motivo, los eurodiputados han pedido que se diseñe un mecanismo eficiente de alerta rápida a nivel europeo que detecte tendencias peligrosas en línea.

A nivel comunitario existe un enfoque fragmentado en lo que respecta a la verificación de la edad, lo que conduce a una fragmentación del mercado interno y a un nivel desigual de protección. Por ejemplo, España pretende crear una suerte de control parental obligatorio para que los menores no puedan registrarse en redes sociales. También apuesta por obligar a que los productos digitales informen de sus efectos negativos en el etiquetado y por acabar con las loot boxes de los videojuegos.

Así, se busca que la Comisión presente mecanismos eficaces de garantía de edad, que podrían convertirse en iniciativas legislativas si fuese necesario. Si bien las plataformas pueden implementar medidas de control parental, el informe subraya que estas herramientas no deben servir para transferir la responsabilidad de proteger a los menores a los padres.

Los parlamentarios explican que los padres a menudo carecen de herramientas adecuadas para supervisar las actividades en línea de los menores, o no son conscientes de las disponibles, y que los menores pueden sortearlas fácilmente.

Con la votación, el Parlamento considera crucial revisar la legislación de consumo existente y proponer nuevas iniciativas para cerrar brechas regulatorias. Se considera un riesgo que los sistemas algorítmicos prioricen el contenido emotivo, aumentando la exposición de los menores a contenido tóxico.

¿La solución? Para Estrasburgo, la Comisión Europea debería proponer una iniciativa legislativa horizontal que abordase y prohibiese las características de diseño activo, exigiendo que todas las plataformas incluyan salvaguardias en sus sistemas de recomendación.

Videojuegos

El 97% de los sitios web y aplicaciones más populares utilizados por los consumidores de la UE despliega al menos un patrón oscuro. Los menores son particularmente vulnerables, siendo más fácilmente manipulados para compartir datos personales o realizar compras no deseadas.

Por este motivo, se ha instado al Ejecutivo a garantizar que la próxima Ley de Equidad Digital asegure un alto nivel de protección para los menores, prohibiendo las cajas de botín, las monedas dentro de la aplicación, los mecanismos de “pagar para progresar” o “pagar para ganar” y otros contenidos aleatorios a cambio de dinero real en juegos accesibles a menores.

Inteligencia Artificial

El informe menciona el fácil acceso a herramientas de IA generativa para menores y los riesgos asociados a la manipulación o a los datos de entrenamiento, lo que puede distorsionar la realidad y llevar a compras no deseadas o a compartir datos personales.

Se insta a la rápida implementación de las obligaciones de transparencia derivadas de la Ley de IA, especialmente en lo que respecta al marcado de agua (watermarking) del contenido generado por IA en plataformas en línea.

Próximos pasos

En el marco de la futura Ley de Equidad Digital, los parlamentarios ven con buenos ojos abordar asuntos como las tecnologías persuasivas, la publicidad dirigida, el marketing de influencers, el diseño adictivo, las cajas de botín y los patrones oscuros. El informe exige medidas de la UE para abordar funciones manipuladoras como el desplazamiento infinito, la reproducción automática, las historias que desaparecen y las prácticas de gamificación perjudiciales que explotan deliberadamente el comportamiento de los menores para impulsar la interacción y el gasto.

Ahora, el documento con las recomendaciones que ha salido del Pleno del Parlamento servirá hoja de ruta en las próximas negociaciones sobre legislación digital.

Personalizar cookies