La IA que mata

En la semana en la que se conmemora el Día Mundial para la Prevención del Suicidio, Francisco Pérez Bes, adjunto de la Agencia Española de Protección de Datos, alerta sobre la tendencia por parte de muchas personas, incluyendo a los más jóvenes, de utilizar la IA generativa con fines de apoyo y de terapia psicológica: "El desconocimiento y falta de información acerca de los riesgos que trae consigo una nueva tecnología, son elementos que provocan una inadecuada utilización y un elevado riesgo de materialización de un daño en las personas"

Como uno de los principales componentes de lo que conocemos como “Interés superior del menor” ocupa un lugar significativo el derecho a la salud, que ha sido objeto de desarrollo por el Comité de los Derechos del Niño en su Observación General número 15, adoptada en 2013, que afirma una creciente preocupación por  “el aumento de la mala salud mental en los adolescentes, en concreto trastornos en el desarrollo y la conducta, depresión, trastornos alimentarios, ansiedad, traumas psicológicos resultantes de (…) comportamientos obsesivos, como un uso excesivo de Internet y otras tecnologías hasta un punto adictivo y la autolesión y el suicidio”. 

Debido al aumento en la utilización de los dispositivos y aplicaciones digitales por los menores y adolescentes llevó al Comité de los Derechos del Niño a adoptar en 2021 la Observación General número 25, sobre los derechos del niño en relación con el entorno digital, en la que se señala que “Los Estados parte deben establecer normas para evitar los daños conocidos y tener en cuenta de forma proactiva las nuevas investigaciones y pruebas en el sector de la salud pública a fin de evitar la difusión de información errónea y de materiales y servicios que puedan dañar la salud mental o física de los niños. También puede ser necesario adoptar medidas para prevenir cualquier participación perjudicial en juegos digitales o en las redes sociales, por ejemplo, reglamentaciones que prohíban los programas digitales que menoscaben el desarrollo y los derechos de los niños”. 

Los derechos del niño en la era de la IA 

Como es esperable, la rapidez en la generalización del uso de una herramienta novedosa y con tanto potencial como el de la inteligencia artificial ha comenzado a revelar disfunciones provocadas por el mal uso de una tecnología, para la cual las personas no siempre estábamos suficientemente preparados. 

Sin entrar a valorar los aspectos estrictamente técnicos, desde una óptica de impacto social podemos afirmar que el desconocimiento y falta de información acerca de los riesgos que trae consigo una nueva tecnología, en particular cuanto más disruptiva sea y más generalizada esté, son elementos que provocan una inadecuada utilización y, como consecuencia, un elevado riesgo de materialización de un daño en las personas, bien sea a nivel individual o colectivo. 

En este sentido, este verano hemos sido testigos de una trágica noticia, consistente en el suicidio de un joven británico supuestamente promovido (o, por lo menos, no evitado) por chatGPT, con quien dicha persona había estado manteniendo conversaciones en las que ponía de manifiesto su deseo de quitarse la vida, mientras obtenía consejo desde dicha IA sobre cuál podría ser la mejor manera para hacerlo. 

La noticia no se hacía eco del inadecuado uso que -en la actualidad- las personas, especialmente los jóvenes, están haciendo de la IA. La noticia se limitaba a destacar la denuncia que los padres de la víctima han interpuesto contra Open AI, la empresa desarrolladora de chatGPT, quien se enfrenta ahora a un proceso judicial en el que los tribunales decidirán sobre la eventual responsabilidad legal que la empresa fabricante pueda tener como consecuencia del aparente mal funcionamiento de este conocido sistema de IA. 

Habrá que estar atento al desenlace de este proceso, pues puede ayudar a sentar las bases sobre el futuro de este tipo de modelos y sistemas, ya que es probable que el tribunal delimite la responsabilidad de fabricantes, implementadores y usuarios de esta tecnología. Sin embargo, al no enjuiciarse previsiblemente en Europa deberemos analizar el resultado con cautela, de no aplicarse la regulación continental. 

En cualquier caso, esta tragedia no hace más que revelar una realidad que debe conocerse y difundirse, especialmente en el ámbito político, pues es cada vez más necesario que nunca el que la sociedad disponga de medidas que garanticen la debida protección de los derechos y libertades fundamentales de las personas, especialmente los más jóvenes, quienes van a seguir haciendo un (inevitable) uso, cada vez mayor (y, si nadie lo remedia, también incontrolado), de la inteligencia artificial.   

Con respecto a esto, es necesario citar un informe recientemente publicado por la London School of Economics en el que se indicaba cuáles eran los principales casos de uso de IA por parte de los ciudadanos para 2025. Dicho informe muestra que el principal uso de la IA es el de “terapia/compañía”. Pero eso no queda ahí. En segundo lugar, encontramos un nuevo caso de uso, consistente en organizar la vida (“organizing my life”) y en tercero, otra novedad, encontrar un propósito en la vida (“finding purpose”). 

A la vista de lo anterior, podemos concluir que existe una tendencia clara por parte de muchas personas, incluyendo a los más jóvenes, a utilizar la inteligencia artificial generativa con fines de apoyo y de terapia psicológica. Contrariamente a lo que uno puede pensar, cuando imaginamos a la IA generativa, exclusivamente, como una extraordinaria herramienta de uso profesional o de ocio. 

Es decir, muchas personas sustituyen el apoyo psicológico guiado por un terapeuta profesional, por una herramienta tecnológica que no está ni pensada ni preparada para poder ofrecer este tipo de servicios a ciudadanos. 

Llegados a este punto, podríamos pensar que la situación no parece tan grave. Sin embargo, es interesante incorporar a esta reflexión otro tipo de datos, relativos al estado de la salud mental de estos usuarios más jóvenes, quienes tratan de encontrar en la IA una ayuda médica rápida para resolver sus miedos, angustias vitales y problemas similares. 

Es decir, si existiera un alto porcentaje de jóvenes que manifieste tendencias suicidas, el riesgo de que tengan a su disposición sistemas de IA al que poder acudir para tratar sus síntomas sin supervisión no parece ser una buena idea, a la vista de la total idoneidad de esta tecnología para este tipo de usos. 

En efecto, la experiencia del desgraciado final de joven británico que comentamos antes no nos debe llevar a desatender los peligros reales que -claramente ahora ya sí- muestra esta nueva situación. 

Los menores como generación hiperconectada que son, buscan una respuesta inmediata a su angustia y malestar psicológico

Relacionado con lo anterior, este mes de septiembre se ha publicado el estudio sobre salud mental, elaborado por la Universitat Oberta de Catalunya (UOC) y otros investigadores. Los resultados de este informe son alarmantes: se afirma que más del 15% de los adolescentes que han participado en el estudio había intentado suicidarse. Y que casi el 20% ha pensado en el suicidio. 

Llegados a este punto, si unimos los resultados de este último estudio -que demuestra una tendencia de muchos jóvenes a pensar en el suicidio-, con el claro uso de la IA como herramienta totalmente inadecuada para el apoyo en caso de necesidades psicológicas, en particular en el caso de colectivos vulnerables; y le añadimos la materialización de un caso concreto pero extrapolable a cualquier otro joven, pone encima de la mesa una realidad que no podemos obviar como sociedad y sobre la que hay que comenzar a trabajar ya. 

Varios elementos debemos tener en cuenta si queremos comenzar a trabajar en esta línea: 

En primer lugar, todavía existe estigmatización a la hora de pedir ayuda. En segundo lugar, los mayores debemos ser conscientes de que los menores que sufren se sienten desatendidos, a la par que, como generación hiperconectada que son, buscan una respuesta inmediata a su angustia y malestar psicológico. Esta respuesta no la ofrece el actualmente colapsado sistema sanitario, mientras que la IA les ofrece un lugar perfecto donde volcar su dolor y sufrimiento. 

Por último, y dentro de esta responsabilidad compartida, también las plataformas deben ser conscientes y actuar, asumiendo su papel dentro de esta ecuación. Así ocurrió con los buscadores, quienes desde hace algún tiempo ofrecen teléfonos de contacto como respuesta a determinadas búsquedas. 

En todo caso, si queremos formar ciudadanos sanos, es el momento de abrir una reflexión acerca de la relación que comienzan a mantener los más jóvenes con la inteligencia artificial cuando de cuestiones relacionadas con la salud mental se refiere. 

SOBRE LA FIRMA: 

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos. Además, fue socio en el área de Derecho Digital de Ecix Group y es ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE)

Personalizar cookies