Según el informe ‘IA y Política Pública: Hacia una nueva arquitectura de incidencia’, realizado por LLYC en el contexto del European Health Summit, los modelos de inteligencia artificial (IA) proporcionan información de salud más superficial y menos detallada a los pacientes en comparación con los profesionales del sector.
El análisis de 1.484 respuestas de cuatro sistemas de IA (‘OpenAI’, ‘Anthropic’, ‘Perplexity’ y ‘Gemini’) ha revelado que la calidad y precisión de los datos varían significativamente dependiendo del usuario, las normativas y el país de procedencia de la consulta. Esto ha generado una notable disparidad en la información sobre normativa sanitaria europea ofrecida por estos modelos de lenguaje.
Desde países como España, Alemania o Francia se obtienen respuestas más completas y con fuentes de mayor calidad en contraposición a países como Polonia, Hungría o Lituania, donde la información es generalmente más escasa y menos fiable.
‘La IA se ha convertido en un actor capaz de influir en la opinión pública y en la percepción sobre temas importantes como la salud y su regulación. Las diferencias observadas, especialmente la desigual distribución de información entre profesionales y pacientes, así como la variabilidad geográfica, representan un desafío crucial de equidad que debe ser supervisado por reguladores y actores del sector’, afirmó Carlos Parry, Líder de Healthcare Europa en LLYC.
En relación al rendimiento de los sistemas de IA analizados, ‘Gemini’ lidera la clasificación, mientras que ‘OpenAI’ se encuentra en la última posición.
‘Nuestro estudio demuestra empíricamente que los modelos de lenguaje actúan como intermediarios activos que modifican y sesgan la información dependiendo del interlocutor. Hemos evolucionado de una web de búsqueda a una de respuestas sintéticas, y comprender la lógica algorítmica de esta nueva “arquitectura de la influencia” es tan crucial hoy en día como lo fue entender los medios de comunicación en el pasado’, explicó Daniel Fernández, director general de Deep Learning en LLYC.
El documento concluye que la interacción entre la Inteligencia Artificial y la política pública en materia de salud evidencia sesgos sistemáticos en los grandes modelos de lenguaje.
