Los riesgos de la terapIA

Francisco Pérez Bes, adjunto de la Agencia Española de Protección de Datos y experto en Derecho Digital: "La realidad nos lleva a plantearnos si no estaremos delegando demasiado rápido en la IA una función profundamente humana"

3 minutos

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos

Publicado

3 minutos

La promesa de una inteligencia artificial siempre disponible (y aparentemente empática) ha encontrado en la salud mental uno de sus campos de expansión más prometedores, pero también más problemáticos.

Basándose en un reciente estudio de la Universidad de Brown, la Unión Europea ha alertado de la creciente tendencia de la ciudadanía a utilizar sistemas comerciales de IA como sustitutos —o al menos complemento— de la terapia psicológica tradicional.

Aunque se vea el potencial que la tecnología tiene en un ámbito social tan necesitado de refuerzo, tal realidad nos lleva a plantearnos si no estaremos delegando demasiado rápido en la IA una función profundamente humana.

El citado estudio no hace sino poner cifras y metodología a un hecho conocido: estos sistemas no están diseñados, ni técnica ni éticamente, para asumir el rol de terapeutas. Sin embargo, millones de usuarios los utilizan como si lo fueran, esperando encontrar ahí un sustento emocional rápido y barato.

Además del claro riesgo que provoca utilizar herramientas inadecuadas en un aspecto tan sensible para la salud mental, la ciudadanía debe ser consciente de que estos sistemas de inteligencia artificial no “comprenden” el sufrimiento humano ni aplican técnicas terapéuticas en sentido estricto. Antes al contrario, se limitan -sin más- a generar respuestas plausibles a partir de patrones estadísticos.

Quizás, el éxito de este tipo de prácticas responda a la tendencia humana consistente en que cuanto más sofisticada parece la respuesta que se recibe por parte de estas novedosas herramientas, mayor es la ilusión de competencia profesional. Y, por tanto, la credibilidad de estos “consejos” electrónicos que, en ningún caso, poseen base científica ni supervisión profesional.

Y aunque la diferencia puede parecer semántica, en contextos de vulnerabilidad psicológica el impacto es sustantivo. El daño potencial al que nos enfrentamos es claro: una respuesta ligeramente sesgada, una validación inapropiada o una omisión en una situación de crisis pueden tener consecuencias negativas reales en las personas.

Más preocupante, aún, es el vacío de responsabilidad. Mientras que los profesionales de la salud mental operan bajo códigos deontológicos, supervisión colegiada y potencial responsabilidad jurídica, los sistemas de IA se mueven en una zona gris normativa. En efecto, la falta de claridad sobre la imputación subjetiva de la responsabilidad jurídica por los resultados del uso de estas plataformas, no es solo un problema legal, sino también ético.

No obstante lo antes expuesto, rechazar de plano el uso de IA en este ámbito sería un error estratégico. La crisis global de salud mental en la que nos encontramos exige soluciones escalables. Y en este entorno, la tecnología puede desempeñar un papel relevante en el futuro de la psicología, en el sentido de ofrecernos apoyo preliminar, detección temprana de riesgos o acompañamiento complementario.

Pero, en este momento de la evolución tecnológica, tampoco caben dudas de que esa integración debe hacerse bajo condiciones estrictas -técnicas y de transparencia- y supervisadas.

Noticia destacada

Análisis y Opinión

La IA en la soledad de la vejez

4 minutos

En el fondo, la advertencia de los investigadores es un recordatorio de prudencia: no estamos ante terapeutas digitales, sino ante simuladores lingüísticos de la terapia. Confundir ambos planos no es -únicamente- una simple cuestión conceptual: es un riesgo para la salud individual y colectiva, que debe incluirse en las estrategias sanitarias de cualquier estado.

Y, si bien existen numerosas cuestiones sobre este tema, una de las principales no es si la inteligencia artificial formará parte del ecosistema de la salud mental —eso parece inevitable—, sino bajo qué reglas, con qué garantías y con qué grado de supervisión humana.

Resulta especialmente representativa una de las conclusiones del informe: "existe una oportunidad real para que la IA desempeñe un papel en la lucha contra la crisis de salud mental que enfrenta nuestra sociedad, pero es de suma importancia que nos tomemos el tiempo para criticar y evaluar nuestros sistemas en cada paso del camino para evitar causar más daño que bien".

Es decir, debemos concienciar a la ciudadanía sobre la inidoneidad de usar este tipo de tecnologías de uso general con el objeto de mejorar su bienestar mental. Mientras que garantizamos que la IA se incorpore de manera adecuada a este tipo de disciplinas y servicios profesionales como un elemento de mejora relevante, que permita hacer frente a los nuevos desafíos humanos y sociales en este complejo campo.

sobre la firma:

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos. Además, fue socio en el área de Derecho Digital de Ecix Group y es ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE)