Legitimar la IA

Francisco Pérez Bes, adjunto de la Agencia Española de Protección de Datos, llama a la reflexión sobre cómo a la par que la IA avanza impulsada por intereses económicos y geopolíticos, crece el riesgo de perder el control sobre su impacto. A su juicio, solo una regulación ética y responsable podrá evitar que el progreso se convierta en amenaza

Geoffrey Hinton fue galardonado con el Premio Nobel de Física 2024 por su trabajo sobre el aprendizaje automático con redes neuronales artificiales, lo que le ha llevado a ser considerado como “el padrino de la IA”.

Al recibir el premio, el laureado científico resumió su invención como una nueva forma de Inteligencia Artificial que utiliza redes neuronales artificiales para aprender a resolver problemas computacionales difíciles. Un avance que promete crear asistentes altamente inteligentes que, con un uso adecuado, podrían incrementar la productividad en casi todas las industrias.

Pero que, con un mal uso, podrían convertirse en una potencial amenaza existencial. En efecto, el empeño por crear seres digitales que sean más inteligentes que nosotros hace tiempo que ha dejado de ser un escenario de ciencia ficción. Todo ello, sin embargo, nos lleva a dudar acerca de si podremos mantener un verdadero control sobre aquellos que, probablemente con forma humanoide y cerebro híbrido propio, puedan llegar a decidir de forma autónoma a quien dañar.

En la actualidad, estamos en un momento clave, en el que como sociedad debemos plantearnos si queremos trabajar para que los beneficios del aumento de la productividad generado por estos avances tecnológicos se puedan compartir por igual. O si, por el contrario, vamos a seguir considerando el desarrollo tecnológico como una “carrera”, con el único objetivo de lograr la supremacía (usando terminología cuántica) que, como empresa o estado, te permita mejorar tu posición geoestratégica de dominio político, militar y de acceso a recursos naturales.

Mientras que la primera opción sería -en palabras de Hinton- un avance maravilloso para toda la humanidad, la segunda opción parece llevarnos a un escenario en el que sólo unos pocos tendrán acceso a la riqueza que los avances digitales crearán. Bien gracias a esta nueva IA, como también desde otras tecnologías que están por venir.

Volviendo al debate de los riesgos, resulta indudable que el rápido progreso de la IA ha planteado numerosas amenazas y otros temores que, a corto plazo, requieren una atención urgente y contundente por parte de los gobiernos y las organizaciones internacionales. Pero no hay que olvidar que, mientras no llega ese momento, la percepción negativa de la IA, poco a poco se va apoderando del estado de ánimo de la ciudadanía, perjudicando la confianza digital de la sociedad frente a la IA.

Tal preocupación no parece ser infundada. Antes al contrario, estamos siendo testigos de cómo la IA se utiliza para manipular a los usuarios de internet, cómo se emplea por gobiernos autoritarios para vigilancia masiva, o como se explota por ciberdelincuentes para lanzar ciberataques. Hace algún tiempo que se viene alertando de cómo en un futuro cercano la IA se usará para crear nuevos virus y otras armas letales.

Ahora bien, y parafraseando al premio Nobel, la tecnología nunca es el problema. Sin embargo, podemos afirmar que el problema lo tiene la sociedad humana y su permisividad ante determinados avances, provocada por el constante temor de ser acusada de ir contra la innovación y el incremento de la competitividad que trae consigo el supuesto progreso, basado en desarrollos tecnológicos cada vez más sorprendentes.

Este argumento, de buen seguro le será familiar al lector, ya que en la actualidad nos encontramos ante ese mismo debate, aunque centrado en la regulación digital. Ello ha llevado -incluso- a ciertas entidades europeas a afirmar, sin evidencias que lo justifiquen, que normas europeas, tales como el Reglamento General de Protección de Datos por citar solo una, ralentizan la innovación europea.

Sea como fuere, la experiencia digital nos ha demostrado que cuando los avances tecnológicos son liderados por empresas que actúan motivadas exclusivamente por un interés económico a corto plazo, nuestra seguridad nunca es la principal prioridad.

Por eso es tan importante velar, garantizar y asegurar, también con regulación, que las empresas actúen, principalmente en Europa, con unos elevados estándares éticos y legales. Y que se diseñen de tal manera que sobre aquellos podamos desarrollar un verdadero movimiento de legitimación que promueva la adopción justa, responsable y sostenible de la Inteligencia Artificial por parte del sector empresarial, así como en todas las áreas de nuestra vida y de nuestra sociedad.

SOBRE LA FIRMA:

Francisco Pérez Bes es adjunto de la Agencia Española de Protección de Datos. Además, fue socio en el área de Derecho Digital de Ecix Group y es ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE)

Personalizar cookies