La promesa d'una intel·ligència artificial sempre disponible (i aparentment empàtica) ha trobat en la salut mental un dels seus camps d'expansió més prometedors, però també més problemàtics.
Basant-se en un estudi recent de la Universitat de Brown, la Unió Europea ha alertat de la creixent tendència de la ciutadania a utilitzar sistemes comercials d'IA com a substituts —o almenys complement— de la teràpia psicològica tradicional.
Tot i que es vegi el potencial que la tecnologia té en un àmbit social tan necessitat de reforç, tal realitat ens porta a plantejar-nos si no estarem delegant massa ràpid en la IA una funció profundament humana.
L'esmentat estudi no fa sinó posar xifres i metodologia a un fet conegut: aquests sistemes no estan dissenyats, ni tècnicament ni èticament, per assumir el rol de terapeutes. Tanmateix, milions d'usuaris els utilitzen com si ho fossin, esperant trobar-hi un suport emocional ràpid i barat.
Notícia destacada
Protegir els menors de la IA: urgència política o complexitat regulatòria?
4 minuts
A més del risc clar que provoca utilitzar eines inadequades en un aspecte tan sensible per a la salut mental, la ciutadania ha de ser conscient que aquests sistemes d'intel·ligència artificial no “comprenen” el patiment humà ni apliquen tècniques terapèutiques en sentit estricte. Ans al contrari, es limiten -sense més- a generar respostes plausibles a partir de patrons estadístics.
Potser, l'èxit d'aquest tipus de pràctiques respongui a la tendència humana consistent en què com més sofisticada sembla la resposta que es rep per part d'aquestes noves eines, més gran és la il·lusió de competència professional. I, per tant, la credibilitat d'aquests “consells” electrònics que, en cap cas, posseeixen base científica ni supervisió professional.
I encara que la diferència pugui semblar semàntica, en contextos de vulnerabilitat psicològica l'impacte és substantiu. El dany potencial al qual ens enfrontem és clar: una resposta lleugerament esbiaixada, una validació inadequada o una omissió en una situació de crisi poden tenir conseqüències negatives reals en les persones.
Més preocupant, encara, és el buit de responsabilitat. Mentre que els professionals de la salut mental operen sota codis deontològics, supervisió col·legiada i potencial responsabilitat jurídica, els sistemes d'IA es mouen en una zona grisa normativa. En efecte, la manca de claredat sobre la imputació subjectiva de la responsabilitat jurídica pels resultats de l'ús d'aquestes plataformes, no és només un problema legal, sinó també ètic.
No obstant el que s'ha exposat abans, rebutjar de ple l'ús d'IA en aquest àmbit seria un error estratègic. La crisi global de salut mental en què ens trobem exigeix solucions escalables. I en aquest entorn, la tecnologia pot tenir un paper rellevant en el futur de la psicologia, en el sentit d'oferir-nos suport preliminar, detecció primerenca de riscos o acompanyament complementari.
Però, en aquest moment de l'evolució tecnològica, tampoc hi ha dubtes que aquesta integració s'ha de fer sota condicions estrictes -tècniques i de transparència- i supervisades.
En el fons, l'advertiment dels investigadors és un recordatori de prudència: no estem davant de terapeutes digitals, sinó davant de simuladors lingüístics de la teràpia. Confondre ambdós plans no és -únicament- una simple qüestió conceptual: és un risc per a la salut individual i col·lectiva, que ha d'incloure's en les estratègies sanitàries de qualsevol estat.
I, si bé hi ha nombroses qüestions sobre aquest tema, una de les principals no és si la intel·ligència artificial formarà part de l'ecosistema de la salut mental —això sembla inevitable—, sinó sota quines regles, amb quines garanties i amb quin grau de supervisió humana.
Resulta especialment representativa una de les conclusions de l'informe: "existeix una oportunitat real perquè la IA tingui un paper en la lluita contra la crisi de salut mental que afronta la nostra societat, però és de summa importància que ens prenguem el temps per criticar i avaluar els nostres sistemes en cada pas del camí per evitar causar més mal que bé".
És a dir, hem de conscienciar la ciutadania sobre la inidoneïtat d'usar aquest tipus de tecnologies d'ús general amb l'objectiu de millorar el seu benestar mental. Mentre que garantim que la IA s'incorpori de manera adequada a aquest tipus de disciplines i serveis professionals com un element de millora rellevant, que permeti fer front als nous desafiaments humans i socials en aquest complex camp.
sobre la signatura:
Francisco Pérez Bes és adjunt de l'Agència Espanyola de Protecció de Dades. A més, va ser soci en l'àrea de Dret Digital d'Ecix Group i és exsecretari general de l'Institut Nacional de Ciberseguretat (INCIBE)