¿Qué es el proceso de Hiroshima y cómo afectará al futuro de la Inteligencia Artificial?

El experto el derecho digitales Francisco Pérez Bes desgrana los detalles de la declaración aprobada hace unos días por los dirigentes del G-7 en materia de IA, unos principios rectores internacionales y un código de conducta voluntario para los desarrolladores

El pasado 30 de octubre, los dirigentes del G-7 adoptaron lo que se conoce como “proceso de Hiroshima en Inteligencia Artificial”, que consta de dos documentos: unos principios rectores internacionales en materia de inteligencia artificial y un código de conducta voluntario para los desarrolladores de IA.

En la declaración hecha pública por los líderes de dicho foro político intergubernamental, a la par que se destaca el potencial innovador y transformador de los sistemas avanzados de Inteligencia Artificial (IA), en particular los modelos fundacionales y la IA generativa, también se refieren a la necesidad de gestionar los riesgos que trae consigo esta nueva tecnología, y el deber de proteger a las personas, a la sociedad y a los principios comunes entre dichos países, en particular el Estado de Derecho y los valores democráticos. Asimismo, la declaración destaca un concepto que ha sido clave durante el desarrollo de la Inteligencia Artificial desde sus orígenes, como es el de mantener a la humanidad en el centro.

A estos efectos, el proceso de Hiroshima persigue, como primer objetivo, el de lograr que aquellas organizaciones que desarrollen sistemas avanzados de IA se comprometan a aplicar el Código Internacional de Conducta.

El proceso de Hiroshima persigue, como primer objetivo, lograr que aquellas organizaciones que desarrollen sistemas avanzados de IA se comprometan a aplicar el Código Internacional de Conducta.

Asimismo, se espera que gracias a este proceso se fomente un entorno abierto y propicio en el que la seguridad, la protección y la confianza sean posibles. Y donde se diseñen, desarrollen, desplieguen y utilicen sistemas de IA seguros y fiables y se mitiguen sus riesgos, a la vez que se reducen las brechas con respecto a economías menos desarrolladas.

El marco político global del citado proceso consta de cuatro pilares:

En lo que respecta a los documentos que componen dicho Proceso, se estructuran en once principios, como son:

  1. Adoptar las medidas adecuadas durante todo el desarrollo de los sistemas avanzados de IA, incluso antes y durante su despliegue, para identificar, evaluar y mitigar los riesgos existentes a lo largo del ciclo de vida de la IA.
  2. Identificar y mitigar las vulnerabilidades y, en su caso, los incidentes y usos indebidos de esta tecnología.
  3. Informar públicamente sobre las capacidades, limitaciones y ámbitos de uso, para garantizar una transparencia suficiente y contribuir al aumento de la responsabilidad.
  4. Trabajar por un intercambio responsable de información y de notificación de incidentes entre las organizaciones que desarrollan sistemas avanzados de IA, lo que incluye la industria, los gobiernos, la sociedad civil y el mundo académico.
  5. Desarrollar, implementar y divulgar políticas de gobernanza y gestión de la IA, centradas en un enfoque basado en el riesgo, incluyendo las políticas de privacidad y las medidas de mitigación.
  6. Invertir y aplicar controles de seguridad sólidos, incluida la seguridad física, ciberseguridad y protección frente a amenazas internas en todo el ciclo de vida de la IA.
  7. Desarrollar e implantar mecanismos fiables de autenticación y procedencia de los contenidos, cuando sean técnicamente viables, como marcas de agua u otras técnicas que permitan a los usuarios identificar los contenidos generados por IA.
  8. Dar prioridad a la investigación para mitigar los riesgos sociales, de seguridad y protección, y priorizar la inversión en medidas de mitigación eficaces.
  9. Dar prioridad al desarrollo de sistemas avanzados de IA para abordar los principales retos actuales, entre los cuales encontramos la crisis climática, la salud mundial y la educación.
  10. Promover la elaboración y, en su caso, la adopción de estándares y normas técnicas internacionales relativas a la IA.
  11. Aplicar medidas adecuadas de introducción de datos (data input) y protección de los datos personales y la propiedad intelectual.

A la vista de los dos bloques que componen el Proceso de Hiroshima, cabe concluir que se trata de documentos que recogen principios genéricos basados en valores universales, muchos de los cuales ya se han ido recogiendo, en mayor o en menor medida, en la normativa que regula la IA o algún otro aspecto vinculado transversalmente a ella, como puede ser el caso de la ciberseguridad. Aunque no recoge ningún incentivo ni medida coercitiva que asegure un compromiso firme para el cumplimiento de los principios recogidos en aquellos.

Se trata de documentos que recogen principios genéricos basados en valores universales.

Sin embargo, el hecho de que la adopción de tales principios venga promovido por algunas de las mayores economías del mundo, debe hacernos reflexionar acerca del futuro impacto competitivo y de posicionamiento estratégico que eso puede tener en el tablero de juego de la IA, donde su rápida (y aparentemente descontrolada) evolución, va a tener unas repercusiones todavía -a mi juicio- imprevistas en la regulación y, por tanto, en la competitividad de las economías de los países que apuesten por la protección de las libertades de las personas, frente a otros países que, en su disputa por la hegemonía mundial, prioricen la inversión y el beneficio económico sin medida, sacrificando los derechos fundamentales de sus ciudadanos.

Quizá sea esta la oportunidad que estaba buscando Europa no sólo de no quedarse descolgada en el desarrollo de la inteligencia artificial, sino de aislar a aquellos bloques que no utilicen de forma ética esta tecnología.

Salir de la versión móvil