Las elecciones a la presidencia estadounidense de 2008 (Obama) se caracterizaron por ser el primer proceso con protagonismo digital, gracias -entre otras cosas- al uso intensivo de redes sociales. Esta estrategia fue percibida positivamente, ya que provocó la movilización de votantes jóvenes y aumentó la participación electoral, modernizando el modelo de campaña electoral.
Por el contrario, las elecciones de 2016 (Trump) se basaron en un uso masivo de Twitter, la microsegmentación publicitaria en Facebook y el caso de Cambridge Analytics, siendo una campaña que se recuerda por el uso de desinformación y la amplificación de mensajes polarizantes.
Estas tecnologías, que entonces fueron revolucionarias y hoy se considerarán obsoletas y arcaicas, han evolucionado para converger en otra que permitirá a las formaciones políticas aumentar su grado de persuasión en los votantes: nos referimos a la Inteligencia Artificial y, en particular, a esta IA generativa (IAG) con la que -si la tendencia continúa- cada vez estaremos más habituados a conversar.
En efecto, algunos datos muestran cómo el uso de IAG entre los jóvenes españoles es cada vez mayor, alcanzando casi el 70% de la población entre 12 y 21 años. Entre ese colectivo hay una participación especialmente elevada en la franja de 16 a 19 años que consultan habitualmente datos relacionados con su salud. Mientras que un segmento significativo comienza a usar IA para asuntos personales relacionados con aspectos de su vida privada.
Así las cosas, no parece que podamos pensar que las generaciones venideras no vayan a mantener una interacción constante y permanente con la inteligencia artificial para consultar asuntos íntimos y profesionales. Y, sin duda, entre ellos estará el a quién votar.
Llegados a este punto, debemos preguntarnos cuál es la capacidad de persuasión de esta tecnología y si sus respuestas llegan a ser creíbles y a condicionar el comportamiento de la persona usuaria de tal tecnología.
La fina línea que separa la persuasión de la manipulación no siempre queda bien definida cuando se habla de IA. En este sentido, cabe recordar que el uso de inteligencia artificial con fines de manipulación viene expresamente prohibido por el artículo 5.1 del Reglamento de Inteligencia Artificial, en distintas modalidades.
Pero yendo al tema de la persuasión, en el contexto de los diálogos entre humanos e IA hay pruebas de que los diálogos con una inteligencia artificial tienen un nivel de persuasión en la persona mayor que los tradicionales mensajes estáticos como, por ejemplo, la publicidad. Es decir, que existen mayores probabilidades de que conversando con una IA sobre un tema en particular, el humano se convenza de una opción en concreto. Eso se debe a que la IA puede aportar argumentos y evidencias fácticas válidas para su interlocutor humano, aunque en muchas ocasiones los datos que use para defender su postura sean falsos o incompletos.
Si llevamos esta reflexión al ámbito electoral, podemos afirmar que este tipo de diálogos entre humanos e IA también pueden tener un efecto sustantivo en las decisiones de los votantes y, en consecuencia, cambiar sustancialmente las actitudes políticas de aquellos, especialmente entre los indecisos. Esto último no es baladí, ya que hay datos que afirman que, en las últimas elecciones generales, este colectivo alcanzaba el 14,5% de los votantes.
Estas afirmaciones sobre la capacidad de persuasión de los sistemas de IA han quedado corroboradas en un reciente artículo de la revista Nature, donde se demostraba que los diálogos personalizados entre ciudadanos y sistemas de IA pueden cambiar -de forma medible- las preferencias políticas de los votantes y, en algunos casos, con más eficacia que la propaganda tradicional.
Esto abre un frente nuevo y delicado en la relación entre Inteligencia Artificial y democracia, que el legislador europeo ya ha tratado de prever -aunque sólo parcialmente- en el artículo 19 del Reglamento (UE) 2024/900 del Parlamento Europeo y del Consejo, de 13 de marzo de 2024, sobre transparencia y segmentación en la publicidad política, que entró plenamente en vigor el pasado 10 de octubre de 2025.
Digo parcialmente porque el citado artículo sí recoge la obligación de informar acerca del uso de IA para la segmentación y envío de publicidad política, si bien no contempla el riesgo que plantean esas IA conversacionales en los días previos a unas elecciones.
Para denunciar la posibilidad de tal uso, el artículo de Nature explica cómo se realizaron una serie de experimentos prerregistrados para evaluar la capacidad que tienen los grandes modelos lingüísticos para influir en las actitudes de los votantes.
En particular, el citado experimento consistió en asignar aleatoriamente a los participantes una conversación con un modelo de IA que defendía a uno de los dos principales candidatos, en el contexto de las elecciones presidenciales estadounidenses de 2024, y las elecciones federales canadienses y las elecciones presidenciales polacas de 2025.
Tras esa interactuación se observaron efectos significativos del tratamiento en la preferencia por los candidatos, de mayor eficacia que los que se observan normalmente en los anuncios de vídeo tradicionales.También se documentaron grandes efectos de persuasión en el apoyo de los residentes de Massachusetts a una medida electoral tan controvertida, como pueda ser el de la legalización de las sustancias psicodélicas.
Cómo podemos evitar que nuestra libertad quede en manos de la IA de ahora en adelante
Una vez examinadas las estrategias utilizadas por los modelos de IA, se pudo concluir que aquellos usan argumentos complementados con hechos y pruebas relevantes, en lugar de utilizar sofisticadas técnicas de persuasión psicológica. Sin embargo, también se pudo observar que no todos los hechos y pruebas presentados por esas IA eran exactos, sino que en todos los casos se identificaron afirmaciones inexactas durante la defensa de la opción planteada.
Estos resultados ponen de relieve el potencial de la IA para influir en los votantes y el importante papel que podría desempeñar en futuras elecciones, por lo que más nos vale comenzar a pensar cómo podemos evitar que nuestra libertad quede en manos de la IA de ahora en adelante.
SOBRE LA FIRMA: Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos. Además, fue socio en el área de Derecho Digital de Ecix Group y es ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE)