Si, como se prevé, la inteligencia artificial va a impactar en todas las dimensiones de nuestra sociedad, lo hará también con la política y, en consecuencia, con la propia democracia.
En efecto, en un año en el que más de la mitad de los habitantes de este planeta están llamados a las urnas, hemos comenzado a vislumbrar de qué manera la IA está llamada a influir en las campañas políticas, entre muchas otras cosas.
Algunos políticos de los principales países, como Norteamérica o la India, ya han venido aplicando inteligencia artificial en muchas de sus actividades. Podemos destacar la adaptación de IA a chatbots que llaman a casa de los potenciales votantes, a los efectos de ofrecer información sobre el programa del candidato en cuestión, y tratar de captar a los votantes indecisos.
Hemos comenzado a vislumbrar de qué manera la IA está llamada a influir en las campañas políticas
Esa llamada, que en ocasiones hasta reproduce la propia voz del candidato, se ofrece a resolver cualquier duda que el ciudadano tenga sobre cualesquiera de las propuestas que se hagan con respecto a cualquier tema: la postura del gobierno ante la guerra, la inmigración, la fiscalidad, la educación o la protección social. Todo ello es susceptible de ser “debatido” entre la IA y el destinatario de esa llamada. Y toda la información obtenida de ese ciudadano, susceptible de completar un perfilado del votante con la que alimentar a otra IA.
Campañas en el mundo
Especialmente destacable ha sido la campaña en la India. En efecto, aquella ha estado marcada por la aplicación de tecnología de deepfakes para mejorar su impacto entre los votantes y potenciales votantes: avatares virtuales, clonación de voces para conversar con los ciudadanos en cualquier idioma, o creación de videos protagonizados por carismáticos políticos, ya fallecidos, para pedir el voto a un determinado candidato.
Esta circunstancia ya se vivó en España con un anuncio televisivo en el que se “resucitaba” a Lola Flores para promocionar un producto. A nivel político sería como si tus padres, o abuelos, recibieran una llamada, o un video personalizado por WhatsApp, de un prescriptor admirado por ellos (Adolfo Suárez por poner un ejemplo) pidiendo el voto para un determinado candidato.
Lógicamente, una práctica como la descrita requiere un análisis jurídico específico, en el que no vamos a entrar ahora. Pero el potencial tecnológico para desarrollar acciones similares ya existe y está a nuestra disposición.
Pero que se pueda hacer no significa que se deba hacer.
Infracciones y malas prácticas
Esta finalidad de uso de tal tecnología ha sido prohibida en varios países, como en Estados Unidos y -próximamente- en Europa con el Reglamento de IA. Sin embargo, enfrentarse a una eventual sanción por infracción de tal prohibición puede, en según qué ocasiones, compensar al infractor si este termina aupándose en el poder de, por ejemplo, un país con capacidad nuclear.
El potencial de la IA también nos debe llevar a preguntarnos qué tipo de malos usos se pueden llegar a hacer si esta tecnología no se utiliza de manera honesta y leal.
Eso exige a los organismos competentes a que se preparen para enfrentarse a este tipo de nuevas malas prácticas: detectándolas, previniéndolas, retirándolas del debate político en caso de ser necesario, e identificando a sus responsables para poderles aplicar las sanciones correspondientes.
En otro orden de cosas, por todos es sabido el poder de convicción de la inteligencia artificial. Una tecnología que siempre da respuesta a todas las preguntas que se le hagan, aunque en ocasiones tenga que inventarse los datos que la soportan. Y que responde con claridad de lenguaje e, incluso, vehemencia.
El potencial de la IA también nos debe llevar a preguntarnos qué tipo de malos usos se pueden llegar a hacer si esta tecnología no se utiliza de manera honesta y leal
Es, precisamente, esta percepción que el ciudadano medio tiene de la IA (especialmente los más vulnerables), lo que convierte a esta tecnología en un eventual objeto de admiración para los humanos (y, en algún caso, también de culto), pero sobre todo, de credibilidad.
Por eso la IA se convierte en una herramienta idónea para el debate político a pie de calle.
El poder ejecutivo ante la IA
Ahora bien, una de las cuestiones a abordar con respecto a esta tecnología es la que tiene que ver con la posibilidad de que acabemos creando IA partidistas, que hayan sido entrenadas con determinadas ideologías para tratar, así, de convencer y contrargumentar otras posiciones distintas de las suyas.
No en vano, cuando China lanzó su manifiesto sobre la Inteligencia Artificial exigía que respetase los principios y valores socialistas. Criterios, estos, que lejos de estar diseñados para lograr el bien común, estarán pensados para que el propio gobierno los defina e interprete conforme a su interés en cada caso.
Por eso debemos preguntaros hasta qué punto esta tecnología puede ser utilizada para restringir nuestra libertad de decidir libre e informadamente, y estar preparados para evitarlo.
Una de las cuestiones a abordar con respecto a esta tecnología es la que tiene que ver con la posibilidad de que acabemos creando IA partidistas
Un debate similar lo tuvimos con el surgimiento de Internet. De nuevo, ahora se nos plantea un gran reto, consistente en defender unos derechos y libertades fundamentales que dejan de ser una cosa elevada y hasta lejana, para, de repente, convertirse en el bote salvavidas de la humanidad.
En un ámbito más práctico, podemos afirmar que la IA generativa está comenzando a ser el pilar sobre el cual se va a construir, en una primera instancia, la comunicación de los propios partidos políticos. En una segunda instancia podríamos ver cómo se aplica la IA para planificar las campañas políticas en todos sus aspectos. Y -por qué no- en última instancia, terminar con una IA que tome decisiones de naturaleza política.
Quizás estemos ante los comienzos de una nueva política y aún no lo sepamos.
SOBRE LA FIRMA Francisco Pérez Bes es socio en el área de Derecho Digital de Ecix Group y ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).

