Creer es más fácil que pensar. Ésa es la razón de que haya tantos creyentes
«Ver para creer» es un antiguo aforismo que reflejaba la creencia común de que la visión era la fuente más confiable de conocimiento y validación.
Efectivamente, ver algo con los propios ojos ha sido tradicionalmente considerado como una prueba irrefutable de su existencia o veracidad. Esta idea proviene de la experiencia cotidiana, en la que las personas tienden a confiar más en aquello que pueden observar directamente. No en vano la vista sigue siendo uno de los sentidos que más usamos para interactuar con el mundo.
En estos tiempos que corren, donde la inteligencia artificial lo impregna todo, convivimos con imágenes digitales hiperreales, creadas utilizando técnicas avanzadas de IA que pueden generar rostros, paisajes y objetos que parecen completamente reales, aunque no existan en el mundo físico.
Por ello, el legislador europeo no ha dudado en incorporar el concepto de “ultrasuplantación” en el Reglamento de Inteligencia Artificial, al que define como:
Un contenido de imagen, audio o video generado o manipulado por una IA que se asemeja a personas, objetos, lugares, entidades o sucesos reales y que puede inducir a una persona a pensar erróneamente que son auténticos o verídicos.
Con tal de prever cuál puede ser el impacto que puede tener en una sociedad la difusión de imágenes de este tipo, es importante analizar cuál es el grado de percepción de estos contenidos por parte del ciudadano medio, destinatario de tales imágenes y contenidos en general. Ciudadano que sigue teniendo un derecho a recibir información veraz.
Capacidad de detectar mentiras
No obstante, dependiendo de la cultura, educación y grado de vulnerabilidad de esa persona (o grupo de personas), su capacidad de detección de la mentira puede variar considerablemente. Por ello determinados colectivos responden con mayor o menor incredulidad ante determinadas situaciones.
En este sentido, es interesante conocer los resultados de un informe que, a mi juicio, revela las dificultades actuales para luchar contra los conocidos como “deepfakes”.
En este informe, la gran mayoría de participantes erró en su respuesta cuando se le presentaba una serie de imágenes a las que debía calificar como reales u originadas por la IA.
¿Habríamos nosotros mejorado el porcentaje de aciertos? Probablemente, no:

En un mundo donde las imágenes solían ser sinónimo de verdad, la tecnología llega para desafiar nuestra confianza en lo que vemos.
Imágenes y vídeos hiperrealistas
Las imágenes generadas por IA pueden ser tan realistas como las que capturan nuestros propios ojos. Y es, precisamente, este hecho, el que amenaza con difuminar la línea entre lo real y lo falso, poniendo en peligro muchas de las creencias hasta ahora vigentes e incuestionadas.
Como no podría ser de otra manera, el uso de IA para generar imágenes y videos hiperrealistas ha comenzado a plantear profundas preocupaciones ante un eventual mal uso, que van desde cuestiones relacionadas con el fraude y la desinformación, hasta cuestiones vinculadas con la seguridad nacional o con la validez de evidencias digitales en procedimientos judiciales, por citar algunos.
Para navegar en este nuevo panorama digital, será fundamental que las empresas que empleen IA para generar imágenes de esta calidad cumplan con las obligaciones de transparencia previstas en el Reglamento de IA, y se sigan desarrollando herramientas y soluciones tecnológicas que ayuden a detectar estas manipulaciones. Pero, sobre todo, que se fomente y promueva una mayor alfabetización mediática que nos ayude a cuestionar si lo que observamos es, o no, real y cierto.
Será fundamental que las empresas que empleen IA para generar imágenes de esta calidad cumplan con las obligaciones de transparencia previstas en el Reglamento de IA
Sabiendo los desafíos a los que nos vamos a enfrentar nosotros, se trata de prever cómo van a reaccionar las generaciones venideras ante un escenario donde puede que nada de lo que vean sea cierto. Dicho con otras palabras, ¿en qué medida tal circunstancia puede perjudicar al nivel de confianza que esperan tener en contenidos sobre cuya percepción formarán sus decisiones políticas, económicas y sociales?
En cualquier caso, habrá que enseñarles que la vista ya no puede ser el único criterio para poder valorar la veracidad de su mundo.
SOBRE LA FIRMA Francisco Pérez Bes es socio en el área de Derecho Digital de Ecix Group y ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).












