El documento final, de fecha 16 de diciembre de 2025, de la Asamblea General de las Naciones Unidas sobre el examen de los resultados de la Cumbre Mundial sobre la Sociedad de la Información, incluyó una interesante referencia a los efectos de la IA en el entorno laboral, a la reconocía su capacidad de reconfigurar el mercado laboral: creará oportunidades de empleo, pero también demanda nuevas destrezas.
Tan sólo un día después se aprobaba la Resolución del Parlamento Europeo sobre configuración del futuro del trabajo, con recomendaciones destinadas a la Comisión sobre digitalización, inteligencia artificial y gestión algorítmica en el lugar de trabajo.
Entre las oportunidades que ofrece la inteligencia artificial, si se sabe gestionar bien, están el aumento de la productividad, la mejora de la prevención de riesgos laborales, liberar de tareas repetitivas y, entre otras, crear empleo. Pero avisa de que, sin reglas claras y sin supervisión humana real, la misma tecnología puede incrementar la carga laboral, erosionar la salud mental, extender la vigilancia intrusiva y consolidar sesgos y discriminaciones difíciles de detectar.
Así las cosas, la Eurocámara pide a la Comisión que presente una nueva ley específica sobre gestión algorítmica en el trabajo (adicional al RIA, al RGPD y a la Directiva sobre trabajadores de plataformas), con el objetivo de evitar que algoritmos opacos tomen decisiones que puedan afectar a la vida laboral de los trabajadores europeos.
La UE quiere mandar sobre los algoritmos
La IA y la automatización ya están reconfigurando el mercado laboral europeo, influyendo en aspectos que van desde la contratación hasta el despido, la evaluación del rendimiento, la asignación de tareas o la vigilancia cotidiana en el puesto de trabajo.
En este sentido, los datos son muy relevantes: estudios citados en la resolución apuntan que entre el 25% y el 80% de las empresas de la UE utilizan alguna forma de gestión algorítmica, y que más de una cuarta parte de los trabajadores está sometida a un seguimiento informatizado de su rendimiento.
Transparencia, formación y empoderamiento de los trabajadores
Sin embargo, a pesar de los datos mostrados, se detecta una carencia inaceptable de transparencia: la Resolución denuncia que menos de la mitad de los empleados afirma haber sido informada de las tecnologías digitales que se usan y que les afectan en su lugar de trabajo; y solo un 18% dice haber recibido explicaciones detalladas sobre ventajas, riesgos y derechos.
Frente a este escenario, el Parlamento reclama el derecho a saber cuándo y cómo se usan algoritmos en el trabajo, qué decisiones influyen y qué datos personales utilizan esos sistemas, y de qué manera.
También la formación de los trabajadores es una cuestión fundamental durante la transición digital: apenas un 15% de los trabajadores recibió en 2023 formación relevante en IA, pese a que una amplia mayoría reconocía necesitar nuevas capacidades para afrontar la disrupción que se anunciaba.
La Resolución pide consolidar un derecho individual a la formación continua y coordinar a escuelas, empresas y sindicatos para anticipar las competencias que demandará el mercado laboral digital del futuro. Una estrategia certera y transversal es más necesaria que nunca.
Salud mental, vigilancia y derecho a desconectar
Bruselas también alerta de que la conectividad permanente provocada por la IA puede amenazar al derecho a la desconexión digital e incrementar los riesgos psicosociales de las personas trabajadoras.
Además de los FRIA (Fundamental Rights Impact Assessment) y de los PIA (Privacy Impact Assessment), la Eurocámara pide que cualquier despliegue significativo de IA en el trabajo se someta a evaluaciones de riesgos laborales específicas, incluidas las relativas a salud mental, y que se garantice en todo momento un control humano efectivo, en línea con el artículo 22 del Reglamento General de Protección de Datos (RGPD) y 11 de la Ley Orgánica 3/2018, de Protección de Datos y garantía de derechos digitales.
Eso incluye identificar responsables claros, capaces de entender y corregir las decisiones de los sistemas y de ofrecer explicaciones comprensibles a los trabajadores cuando un algoritmo influya en su salario, su carrera o su continuidad en la empresa.
Límites a la vigilancia y datos sensibles
Entre las prácticas que se quieren prohibir durante esa inevitable gestión algorítmica (además de las ya prohibidas por el Reglamento de IA) figuran el uso de datos sobre estados emocionales o neurológicos, la monitorización de comunicaciones privadas o el seguimiento de personas fuera del horario o del lugar de trabajo.
Asimismo, la resolución parece mantener el actual criterio, sostenido por la normativa de protección de datos, por el cual se rechaza que el consentimiento de un trabajador pueda utilizarse como base general para legitimar tratamientos de datos en contextos de clara desigualdad de poder, como la vigilancia o las decisiones automatizadas de personal en determinados contextos, especialmente en supuestos de usos abusivos.
Una futura ley europea sobre gestión algorítmica
Más allá de los mensajes políticos, la resolución incluye un detallado paquete de recomendaciones para una futura directiva sobre gestión algorítmica en el lugar de trabajo.
La norma se aplicaría a todas las personas trabajadoras y empleadores de la UE, con obligaciones ajustadas al tamaño de las empresas, y fijaría un principio rector: ninguna decisión clave sobre la relación laboral —desde la contratación hasta el despido o las sanciones— puede quedar en manos de la IA sin una supervisión humana real y responsable.
Además, la propuesta parlamentaria quiere obligar a las empresas a informar y a consultar a la representación de los trabajadores antes de introducir o modificar sistemas algorítmicos que afecten a salarios, organización del trabajo, tiempos o evaluación.
También refuerza el papel de las inspecciones de trabajo y de las autoridades de protección de datos, y blinda una cláusula de no regresión: los Estados y los convenios colectivos podrán mantener o adoptar normas más protectoras, pero no rebajar el listón mínimo europeo.
En definitiva, los algoritmos pueden ser una amenaza a los derechos de las personas trabajadoras. Por eso en necesario que se diseñen con criterios justos, legales y transparentes, y que se establezcan controles que protejan nuestros derechos y garanticen nuestras libertades, también en el ámbito laboral. Todo ello acompañado de una formación adecuada y de una estrategia a corto-medio plazo que capacite a las personas a ser competitivas en el inevitable futuro digital que ya está aquí.
SOBRE LA FIRMA: Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos. Además, fue socio en el área de Derecho Digital de Ecix Group y es ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE