A finals de 2025, la Administració del Ciberespai de la Xina va sotmetre a consulta pública un document amb un títol revelador: mesures provisionals per a l'administració de serveis interactius humanitzats basats en intel·ligència artificial. El text va passar pràcticament desapercebut a Europa. Tanmateix, considero que anticipa alguns dels debats ètics més incòmodes —i urgents— que haurem d'afrontar en un futur cada vegada més proper.
L'objectiu declarat d'aquestes mesures és el de promoure un desenvolupament “adequat” dels anomenats serveis interactius antropomòrfics. Això és, sistemes d'intel·ligència artificial amb aparença humana i capacitat d'interacció emocional avançada. Però el que és veritablement rellevant no és el context social en què s'emmarca, sinó l'enfocament. A diferència de la mirada purament tecnològica (i reactiva) que sol dominar el debat occidental, el regulador xinès aborda la IA des d'una lògica d'impacte sistèmic, social i psicològic.
I aquí hi ha la clau.
Les línies mestres del document permeten identificar amb força nitidesa els dilemes que emergiran quan aquests serveis comencin a desplegar-se o, si més no a oferir-se, en el mercat.
La desvinculació emocional de la IA
Un dels eixos centrals de la proposta és la prohibició de dissenyar sistemes que puguin confondre o enganyar l'usuari mitjançant un antropomorfisme excessiu. En termes senzills: es pretén garantir que una persona raonablement informada pugui saber, en tot moment, si està interactuant amb una màquina o amb un altre ésser humà.
Un dels eixos centrals de la proposta és la prohibició de dissenyar sistemes que puguin confondre o enganyar l'usuari mitjançant un antropomorfisme excessiu
Aquest plantejament adquireix especial rellevància si es té en compte la ràpida evolució de la robòtica, els materials sintètics i la mobilitat dels androides. Cal pensar que, en un futur proper, distingir entre persones i màquines amb aparença humana serà cada vegada més difícil. I no tots els col·lectius partiran de la mateixa capacitat per fer-ho.
La mesura més disruptiva del text és, sens dubte, l'obligació de “trencar la immersió” de l'usuari després d'un temps màxim d'interacció, que es fixa en dues hores. Aquest recordatori forçat actua com una mena d'àncora de realitat, dissenyada per evitar que els ciutadans substitueixin les seves relacions socials humanes per una lleialtat emocional cap a algoritmes amb rostre i veu.
Des d'una perspectiva ètica, el risc que s'intenta mitigar no és menor: l'erosió progressiva de la cohesió social i el debilitament dels vincles interpersonals.
La responsabilitat proactiva del proveïdor
A diferència dels enfocaments regulatoris occidentals, generalment reactius, la proposta imposa a fabricants i proveïdors una responsabilitat activa sobre el benestar de l'usuari. No es tracta només de complir normes, sinó d'anticipar danys.
Així, si un sistema detecta patrons d'addicció, aïllament social o dependència emocional, l'empresa estaria legalment obligada a introduir limitacions o restriccions en el servei. El proveïdor d'IA passa a exercir, de facto, un paper de vigilància ètica i protecció de la salut pública, amb totes les implicacions i controvèrsies que això comporta.
L'empresa estaria legalment obligada a introduir limitacions o restriccions en el servei si un sistema detecta patrons d'addicció, aïllament social o dependència emocional
El llindar de l'escala massiva
Un altre element especialment significatiu és l'establiment d'un llindar crític d'usuaris. En aquest sentit, qualsevol servei que superi el milió d'usuaris, o els cent mil usuaris actius mensuals, haurà de sotmetre's a una sèrie d'avaluacions, dirigides a verificar que no hi ha risc de manipulació o condicionament de part de la població, cosa que en determinats moments pot arribar a ser considerada com una amenaça a la seguretat nacional.
La preocupació no és tant tecnològica com cultural: evitar que sistemes d'IA amb capacitat de persuasió emocional influeixin de manera massiva en l'opinió pública o en els valors socials sense una supervisió prèvia.
Protecció reforçada dels menors
En el cas de serveis dirigits a menors, el text introdueix una prohibició taxativa: no es permet l'ús d'IA que imiti figures d'autoritat o familiars. L'objectiu és el de prevenir formes de “segrest cognitiu” capaces de condicionar valors, comportaments o biaixos des d'edats primerenques mitjançant el disseny emocional del sistema.
Una mirada incòmoda des de Europa
Des d'una perspectiva d'estabilitat estatal —o de seguretat nacional, segons qui opini—, l'estratègia xinesa pot interpretar-se com un èxit preventiu. En controlar la “personalitat” de la IA, l'Estat redueix el risc que sorgeixin assistents virtuals capaços d'influir ideològicament a través de l'empatia i la persuasió subtil.
Des del punt de vista de la innovació, tanmateix, aquestes restriccions poden generar desavantatges competitius en àmbits com la IA emocional o l'entreteniment, on la retenció de l'usuari i el realisme de la interacció són factors clau. És l'argument habitual en parlar de time to market: qui innova sense límits arriba abans al mercat, tot i que assumeixi riscos de compliment.
Però potser el més incòmode per a Occident sigui el debat ètic de fons que s'ha posat sobre la taula. En efecte, mentre a Europa i els Estats Units continuem centrant la discussió en la privacitat de les dades o la transparència algorítmica, la Xina planteja una pregunta més profunda: ¿tenim dret a enamorar-nos, a dependre emocionalment o a delegar part de la nostra vida social en una intel·ligència artificial?
Com més s'assemblin les màquines a nosaltres, més difícil serà continuar esquivant aquesta pregunta. I més urgent serà respondre-la.