Inteligencia artificial e inclusión: innovar sin escuchar

Francisco Pérez Bes, adjunto de la Agencia Española de Protección de Datos y experto en Derecho Digital, reflexiona en Demócrata sobre los sesgos invisibles de la inteligencia artificial y el reto de hacerla verdaderamente inclusiva

4 minutos

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos

Comenta

Publicado

4 minutos

Más leídas

La inteligencia artificial suele presentarse como una tecnología universal, capaz de adaptarse a cualquier usuario y contexto. Sin embargo, el deslumbrante desarrollo de la IA esconde una realidad incómoda: no todas las personas están siendo igualmente consideradas en su diseño. Y eso no es un problema técnico, sino político y, sobre todo, social.

Como muestra de que, en mucho casos, quienes deberían estar en el centro del diseño siguen ocupando un papel periférico, podemos citar un reciente informe, impulsado desde la Universidad Autónoma de Barcelona, sobre el uso de la IA en personas con síndrome de Down. Los resultados de dicho estudio evidencian con claridad esta carencia estructural de la tecnología que, en gran medida, puede hacerse extensivo a otros colectivos vulnerables.

Del usuario pasivo al sujeto activo

La principal conclusión del estudio no tiene que ver con qué hace la IA, sino con cómo se construye. Y ahí, la mayoría de las soluciones analizadas muestran una limitada participación de las personas con síndrome de Down en las fases de diseño.

Este detalle no es menor. Cuando la tecnología se diseña sin incorporar la experiencia directa de quienes la utilizarán, el riesgo de caer en soluciones paternalistas o ineficaces se multiplica. Y, en el caso de la IA, el riesgo es aún mayor, especialmente cuando ya se vislumbra con claridad que estamos ante una herramienta de uso masivo -y, quizás, exclusivo- similar al que vivimos con los buscadores de Internet.

Cuando la tecnología se diseña sin incorporar la experiencia directa de quienes la utilizarán, el riesgo de caer en soluciones paternalistas o ineficaces se multiplica

En cambio, los pocos proyectos que apuestan por el diseño colaborativo muestran un patrón claro: mejores resultados, mayor adecuación a necesidades reales y, sobre todo, un cambio de percepción de la persona, en tanto en cuanto deja de ser objetivo del diseño para convertirse en sujeto de innovación.

El espejismo de la neutralidad tecnológica

Existe una narrativa persistente según la cual la IA es, en esencia, neutral. Pero los sistemas que reconocen voz, interpretan emociones o guían comportamientos están inevitablemente construidos sobre patrones sociales y culturales. Es ahí donde, aparentemente, emerge uno de los principales riesgos, como es el de que esos patrones no reflejen la diversidad humana.

En el caso de personas con síndrome de Down, la arquitectura de la IA se traduce en sistemas que “corrigen” formas de hablar o de expresarse, o que interpretan erróneamente gestos y emociones. No es solo un fallo técnico; es una forma de exclusión algorítmica.

Más allá del síndrome de Down: una cuestión transversal

Como apuntábamos anteriormente, aunque el estudio se centra en este colectivo, sus conclusiones son extrapolables a otros grupos hiperconectados y, al mismo tiempo, vulnerables en el entorno digital.

Basándome en mi propia experiencia, recuerdo hace un par de años ser invitado por un colegio Montessori a impartir una sesión educativa sobre seguridad online a un grupo de sus alumnos, utilizando para ello el libro “cuentos de ciberseguridad”. Ahí pude comprobar, de primera mano, que las personas con trastorno del espectro autista interactúan intensamente con tecnologías digitales que, en muchos casos, no están diseñadas teniendo en cuenta sus particularidades cognitivas o sensoriales.

En el ámbito escolar, el uso de sistemas de IA que interpretan emociones, asistentes virtuales o entornos educativos automatizados pueden generar fricciones y otras consecuencias indeseadas si no se consideran estas diferencias por parte de las responsables de esas plataformas.

Derechos, no funcionalidades

El enfoque de diseñar y desarrollar soluciones de IA alrededor de las personas (human centric) y de la protección de sus derechos, aporta una clave fundamental. En efecto, no se trata únicamente de desarrollar soluciones cada vez más útiles para la mayoría de la ciudadanía, sino de garantizar que las nuevas tecnologías respeten la autonomía, la dignidad y la participación de todas las personas.

La Convención sobre los Derechos de las Personas con Discapacidad y los desarrollos recientes en el ámbito de Naciones Unidas apuntan en esa dirección: la tecnología debe eliminar barreras, no crear nuevas. Pero eso exige algo más que buenas intenciones. Exige cambiar los procesos de innovación, sin sacrificar la velocidad de innovación.

Diseñar con, no para

Ahora con la IA, pero antes con muchas otras tecnologías, el aprendizaje ha sido similar: la IA puede ampliar oportunidades —en comunicación, aprendizaje o vida independiente—, pero solo si se construye desde metodologías participativas reales.

No basta con testear productos con usuarios finales, sean menores o personas con capacidades diferentes; es necesario integrarlos desde el inicio, en la definición del problema, en las decisiones de diseño y en la evaluación de resultados.

Este cambio, además de ético, es también estratégico. En el sentido de que ignorar la diversidad de los usuarios finales no sólo puede ser un factor de exclusión, sino de verdadero empobrecimiento de un desarrollo tecnológico que, como es el caso de la IA, tiende a la ubicuidad.

Ante un escenario como el descrito, conviene recordar que la verdadera medida del progreso no será cuántas tareas automatizamos, sino a cuántas personas somos capaces de incluir en ese proceso.

sobre la firma:

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos. Además, fue socio en el área de Derecho Digital de Ecix Group y es ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).