A finales de 2025, la Administración del Ciberespacio de China sometió a consulta pública un documento con un título revelador: medidas provisionales para la administración de servicios interactivos humanizados basados en inteligencia artificial. El texto pasó prácticamente desapercibido en Europa. Sin embargo, considero que anticipa algunos de los debates éticos más incómodos —y urgentes— que tendremos que afrontar en un futuro cada vez más cercano.
El objetivo declarado de estas medidas es el de promover un desarrollo “adecuado” de los llamados servicios interactivos antropomórficos. Esto es, sistemas de inteligencia artificial con apariencia humana y capacidad de interacción emocional avanzada. Pero lo verdaderamente relevante no es el contexto social en el que se enmarca, sino el enfoque. A diferencia de la mirada puramente tecnológica (y reactiva) que suele dominar el debate occidental, el regulador chino aborda la IA desde una lógica de impacto sistémico, social y psicológico.
Y ahí está la clave.
Las líneas maestras del documento permiten identificar con bastante nitidez los dilemas que emergerán cuando estos servicios comiencen a desplegarse o, por lo menos a ofrecerse, en el mercado.
La desvinculación emocional de la IA
Uno de los ejes centrales de la propuesta es la prohibición de diseñar sistemas que puedan confundir o engañar al usuario mediante un antropomorfismo excesivo. En términos sencillos: se pretende garantizar que una persona razonablemente informada pueda saber, en todo momento, si está interactuando con una máquina o con otro ser humano.
Uno de los ejes centrales de la propuesta es la prohibición de diseñar sistemas que puedan confundir o engañar al usuario mediante un antropomorfismo excesivo
Este planteamiento adquiere especial relevancia si se tiene en cuenta la rápida evolución de la robótica, los materiales sintéticos y la movilidad de los androides. Cabe pensar que, en un futuro cercano, distinguir entre personas y máquinas con apariencia humana será cada vez más difícil. Y no todos los colectivos partirán de la misma capacidad para hacerlo.
La medida más disruptiva del texto es, sin duda, la obligación de “romper la inmersión” del usuario tras un tiempo máximo de interacción, que se fija en dos horas. Este recordatorio forzado actúa como una suerte de ancla de realidad, diseñada para evitar que los ciudadanos sustituyan sus relaciones sociales humanas por una lealtad emocional hacia algoritmos con rostro y voz.
Desde una perspectiva ética, el riesgo que se intenta mitigar no es menor: la erosión progresiva de la cohesión social y el debilitamiento de los vínculos interpersonales.
La responsabilidad proactiva del proveedor
A diferencia de los enfoques regulatorios occidentales, generalmente reactivos, la propuesta impone a fabricantes y proveedores una responsabilidad activa sobre el bienestar del usuario. No se trata solo de cumplir normas, sino de anticipar daños.
Así, si un sistema detecta patrones de adicción, aislamiento social o dependencia emocional, la empresa estaría legalmente obligada a introducir limitaciones o restricciones en el servicio. El proveedor de IA pasa a desempeñar, de facto, un papel de vigilancia ética y protección de la salud pública, con todas las implicaciones y controversias que ello conlleva.
La empresa estaría legalmente obligada a introducir limitaciones o restricciones en el servicio si un sistema detecta patrones de adicción, aislamiento social o dependencia emocional
El umbral de la escala masiva
Otro elemento especialmente significativo es el establecimiento de un umbral crítico de usuarios. En este sentido, cualquier servicio que supere el millón de usuarios, o los cien mil usuarios activos mensuales, deberá someterse a una serie de evaluaciones, dirigidas a verificar que no existe riesgo de manipulación o condicionamiento de parte de la población, lo que en determinados momentos puede llegar a ser considerado como una amenaza a la seguridad nacional.
La preocupación no es tanto tecnológica como cultural: evitar que sistemas de IA con capacidad de persuasión emocional influyan de forma masiva en la opinión pública o en los valores sociales sin una supervisión previa.
Protección reforzada de los menores
En el caso de servicios dirigidos a menores, el texto introduce una prohibición tajante: no se permite el uso de IA que imite figuras de autoridad o familiares. El objetivo es el de prevenir formas de “secuestro cognitivo” capaces de condicionar valores, comportamientos o sesgos desde edades tempranas mediante el diseño emocional del sistema.
Una mirada incómoda desde Europa
Desde una perspectiva de estabilidad estatal —o de seguridad nacional, según quien opine—, la estrategia china puede interpretarse como un éxito preventivo. Al controlar la “personalidad” de la IA, el Estado reduce el riesgo de que surjan asistentes virtuales capaces de influir ideológicamente a través de la empatía y la persuasión sutil.
Desde el punto de vista de la innovación, sin embargo, estas restricciones pueden generar desventajas competitivas en ámbitos como la IA emocional o el entretenimiento, donde la retención del usuario y el realismo de la interacción son factores clave. Es el argumento habitual al hablar de time to market: quien innova sin límites llega antes al mercado, aunque asuma riesgos de cumplimiento.
Pero quizá lo más incómodo para Occidente sea el debate ético de fondo que se ha puesto sobre la mesa. En efecto, mientras en Europa y Estados Unidos seguimos centrando la discusión en la privacidad de los datos o la transparencia algorítmica, China plantea una pregunta más profunda: ¿tenemos derecho a enamorarnos, a depender emocionalmente o a delegar parte de nuestra vida social en una inteligencia artificial?
Cuanto más se parezcan las máquinas a nosotros, más difícil será seguir esquivando esa pregunta. Y más urgente será responderla.