Proteger a los menores de la IA: ¿urgencia política o complejidad regulatoria?

Francisco Pérez Bes, adjunto de la Agencia Española de Protección de Datos y experto en Derecho Digital, analiza en Demócrata la última iniciativa legislativa impulsada en Estados Unidos que coloca la protección de los menores en el centro del debate sobre la IA

4 minutos

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos

Comenta

Publicado

4 minutos

Más leídas

En materia de inteligencia artificial, la reciente iniciativa impulsada en Estados Unidos para orientar la futura actividad legislativa de sus congresistas (que lleva por título “AI National Policy Framework”) sitúa, de forma significativa, la protección de los menores en el centro del debate.

No en vano, de los siete bloques que componen dicho marco, la protección de los menores es el primero y el más extenso.

Este hecho no debe ser considerado como una decisión menor o meramente simbólica. Al contrario, refleja una intuición política acertada: la primera línea de legitimidad de cualquier regulación tecnológica pasa, hoy, por su capacidad para proteger a los colectivos más vulnerables en un entorno digital cada vez más difícil de gobernar. De hecho, la educación digital de los futuros ciudadanos debiera, a mi juicio, convertirse en un asunto de seguridad nacional o, por lo menos, estratégico desde una perspectiva de salud pública.

El citado bloque sobre la protección de los menores plantea una serie de recomendaciones y mandatos al legislador, con en un enfoque que combina tres elementos: responsabilidad de las plataformas, empoderamiento parental y desarrollo de mecanismos de verificación de edad. Sobre el papel, la fórmula parece equilibrada.

Se exige a los servicios de IA que incorporen medidas para reducir riesgos evidentes —como los deepfakes, la explotación sexual o la inducción a las autolesiones—, al tiempo que se refuerza el papel de los padres como principales gestores del entorno digital de sus hijos.

De hecho, la responsabilidad proactiva del adulto es un punto específico dentro de este documento. En efecto, este marco regulatorio requiere al Congreso de los Estados Unidos a que en su futura actividad legislativa prevea obligar a las plataformas a facilitar a los padres y tutores herramientas robustas con las que gestionar y configurar adecuadamente la privacidad, el tiempo de uso, la exposición a contenidos inadecuados, así como otros controles aplicables a las cuentas de los usuarios.

Además, se introducen requisitos de verificación de edad “razonables” desde el punto de vista comercial y que deben ser respetuosos con la privacidad, lo que evidencia una preocupación por no generar soluciones intrusivas o desproporcionadas.

Sin embargo, la aparente claridad de estos principios se enfrenta a una realidad técnica y jurídica mucho más compleja.

El primero de los grandes desafíos radica en la propia definición de “protección del menor” en entornos basados en inteligencia artificial. A diferencia de las plataformas tradicionales, los sistemas de IA no solo distribuyen contenidos, sino que los generan dinámicamente, lo que dificulta enormemente el control ex ante y desplaza el problema hacia modelos de mitigación de riesgos mucho más sofisticados.

En este contexto, exigir a las plataformas que reduzcan riesgos sin definir con precisión los estándares técnicos aplicables puede generar una tensión inevitable entre cumplimiento normativo y viabilidad operativa.

Un segundo elemento crítico es el relativo a la verificación de edad (age assurance). Mientras Europa sigue avanzando en el fomento de estas tecnologías (liderado, en gran parte, por la Agencia Española de Protección de Datos), La propuesta estadounidense opta por otro tipo de fórmulas, como la declaración parental, evitando sistemas más intrusivos.

Esta cautela responde a la preocupación por una posible judicialización del ecosistema digital

Sin embargo, este enfoque plantea interrogantes evidentes sobre su eficacia real. En efecto, la experiencia demuestra que los mecanismos de autoidentificación más robustos —basados en biometría o verificación documental— abren un debate complejo en materia de privacidad y proporcionalidad. Este dilema, además de técnico, es profundamente político: ¿qué nivel de intrusión estamos dispuestos a aceptar para proteger a los menores en entornos digitales?

Asimismo, resulta especialmente relevante el mandato al Congreso para que la futura regulación evite estándares ambiguos sobre contenidos o regímenes de responsabilidad excesivamente abiertos. Esta cautela responde, en gran medida, a la preocupación por una posible judicialización del ecosistema digital, que podría derivar en efectos indeseados, principalmente el aumento de demandas multimillonarias que provoquen la autocensura de las plataformas y, en última instancia, la limitación de la innovación.

No obstante, esta misma prudencia puede traducirse en una cierta indeterminación normativa que dificulte la aplicación efectiva de las medidas propuestas.

Esta iniciativa introduce además un elemento de contraste interesante. Mientras que la Unión Europea ha optado por un enfoque más estructurado y preventivo —como el recogido en el marco regulatorio de la inteligencia artificial—, el modelo estadounidense parece inclinarse por una combinación de principios generales y responsabilidad distribuida entre actores. La cuestión clave será determinar cuál de estos modelos resulta más eficaz en la práctica para proteger a los menores sin comprometer otros valores esenciales, como la innovación o la libertad de expresión.

En última instancia, la protección de los menores frente a los riesgos de la inteligencia artificial no puede abordarse únicamente desde la lógica regulatoria. Requiere también un enfoque educativo, tecnológico y social que reconozca la complejidad del fenómeno. Las normas son necesarias, pero no suficientes. El verdadero reto reside en construir un ecosistema digital en el que la seguridad de los menores no dependa exclusivamente de barreras técnicas o jurídicas, sino de una cultura digital verdadera basada en la responsabilidad compartida entre plataformas, instituciones y sociedad.

Porque, en el fondo, la cuestión no es proteger a los menores de la inteligencia artificial, sino qué tipo de entorno digital estamos dispuestos a construir para las generaciones que crecerán dentro de ella.

sobre la firma:

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos. Además, fue socio en el área de Derecho Digital de Ecix Group y es ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).