Mientras 4 de cada 10 empresas entrevistan a sus candidatos con IA, el Gobierno anuncia medidas para obligar a empresas a luchar contra sesgos algorítmicos

El experto en derechos digitales, Francisco Pérez Bes, analiza las medidas anunciadas por el Ejecutivo para obligar a empresas a luchar contra sesgos algorítmicos en el trabajo y el papel del Reglamento Europeo de la IA en esta materia

Saepe summa ingenia in occulto latent

Plauto

Cada vez es más habitual que las empresas usen IA en los procesos de selección a puestos de trabajo, donde los candidatos se enfrentan a entrevistas con algún tipo de programa o bot durante alguna fase del proceso.

De hecho, en un informe publicado en 2023, realizado entre más de 1000 ofertantes de empleo, las empresas afirmaban que el 43% ya había adoptado -o iba a hacerlo en 2024- planes para habilitar entrevistas de trabajo utilizando inteligencia artificial.

Además de este dato, destaca que el 15% de los consultados aseguraban que la IA sería utilizada para adoptar decisiones acerca de las candidaturas presentadas sin ningún tipo de intervención humana.

Esta realidad está clasificando a las empresas en dos categorías: aquellas que todavía confían en el criterio humano a la hora de contratar personal (un 85%) y aquellas que consideran que el criterio del profesional de Recursos Humanos es sustituible.

Cualquiera de ambas opciones tiene ventajas e inconvenientes. Pero lo que está claro es que, en un futuro muy cercano, la incorporación de herramientas de apoyo a la contratación (como también, de promoción y despido) basadas o soportadas en la IA, será inevitable.

Los sesgos en el ámbito laboral

Un año antes a la publicación de dicho informe, el Ministerio de Trabajo publicaba su “guía práctica y herramienta sobre la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral”, al objeto de que las organizaciones conozcan y tengan en cuenta los riesgos laborales que trae consigo el uso de inteligencia artificial dentro de este ámbito, en particular, el de la injusticia y la discriminación laboral.

La incorporación de herramientas de apoyo a la contratación (como también, de promoción y despido) basadas o soportadas en la IA será inevitable

Más recientemente, el 26 de febrero de 2024, la ministra de Trabajo española, Yolanda Díaz, se reunió en Washington con su homóloga estadounidense, la Secretaria de Trabajo, para suscribir un documento titulado “declaración sobre el sesgo algorítmico en el mundo del trabajo”. Esta declaración conjunta persigue, según afirma en su nota de prensa, combatir el sesgo algorítmico en el trabajo.

Entre los riesgos asociados con los sesgos algorítmicos en el trabajo podemos destacar los que afectan a la selección de personal, la evaluación del rendimiento laboral, la promoción y desarrollo profesionales, la asignación de tareas, la remuneración y la compensación, o el clima laboral y la cultura organizacional.

Para mitigar estos riesgos, las organizaciones han comenzado a implementar prácticas y controles que promueven la transparencia, la equidad y la responsabilidad en el diseño, así como en la implementación y uso de algoritmos en el lugar de trabajo. Estas tareas se van incorporando, cada vez con mayor habitualidad, a los sistemas internos de cumplimiento de las empresas.

Algoritmos para control e inspección

A la vista de la evolución de tal tecnología y de su aplicación al ámbito laboral, es esencial diseñar procesos que garanticen la supervisión humana de los sistemas algorítmicos en el seno de las empresas (públicas y privadas), la auditoría regular de tales algoritmos al objeto de detectar sesgos en el ámbito laboral, y la capacitación del personal en concienciación y mitigación de sesgos de esta naturaleza.

La inspección de trabajo no ha sido ajena a este fenómeno, y desde hace ya algún tiempo trabaja con el conocido como algoritmo MAX, cuyo objetivo era el de analizar el comportamiento de las empresas con tal de detectar un exceso de horas extra no remuneradas gracias al procesamiento de distintas variables, como el consumo de luz, las altas y bajas de empleados, etc.

Entre los riesgos asociados con los sesgos algorítmicos en el trabajo podemos destacar los que afectan a la selección de personal, la evaluación del rendimiento laboral o la promoción y desarrollo profesionales

Ello permitió descubrir que casi todas las grandes consultoras promovían jornadas excesivamente largas lo que, a juicio de la inspección, suponía un incumplimiento grave de la legislación laboral.

Más recientemente, con la aprobación del Real Decreto-Ley 9/2021, comúnmente conocida como “ley rider”, se consagró el derecho de todo empleado a «ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.

Decisiones automatizadas en el trabajo y el Reglamento de IA

Esta normativa se encuentra en perfecta armonía con lo previsto en los artículos 11 y 18 de la Ley Orgánica de Protección de Datos y garantías de los derechos digitales, que también reconocen el derecho de cualquier persona a no verse sometida a decisiones exclusivamente automatizadas.

La cercanía de la próxima publicación del Reglamento Europeo de Inteligencia Artificial, presenta una gran oportunidad para que las empresas promuevan actuaciones responsables y diligentes, y desarrollen sistemas internos a través de los cuales regulen, de forma voluntaria, determinadas actuaciones al objeto de reforzar la protección de los trabajadores ante la llegada de una tecnología, como es la inteligencia artificial, que está cambiando todas las reglas, también las del trabajo.

Ante este escenario, las empresas deberán reforzar sus sistemas de cumplimiento y control, mientras se enfrentan, cada vez con mayor habitualidad, a reclamaciones y demandas

En esta línea, el Reglamento califica como de alto riesgo, de un lado, a aquellos sistemas de IA destinados a utilizarse para la contratación o selección de personas físicas, especialmente para anunciar puestos vacantes, clasificar y filtrar solicitudes o evaluar a candidatos en el transcurso de entrevistas o pruebas; y, de otro lado, a aquella IA destinada a utilizarse para tomar decisiones relativas a la promoción y resolución de relaciones contractuales de índole laboral, a la asignación de tareas y al seguimiento y evaluación del rendimiento y la conducta de las personas en el marco de dichas relaciones.

Estos hechos hacen presumir un incremento (otro) de normativa laboral en España y, por consiguiente, de nuevas obligaciones a implementar por las empresas. Ante este escenario, las empresas deberán reforzar sus sistemas de cumplimiento y control, mientras se enfrentan, cada vez con mayor habitualidad, a reclamaciones y demandas derivadas de supuestas ineficiencias de esta gestión automatizada.

SOBRE LA FIRMA
Francisco Pérez Bes es socio en el área de Derecho Digital de Ecix Group y ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE)
Salir de la versión móvil