Uno de los mayores desafíos que trae consigo la expansión de la inteligencia artificial tiene que ver con la ausencia de regulaciones coherentes a nivel internacional, provocada por la rapidez de la irrupción de esta tecnología.
No obstante, el legislador europeo siempre ha sido consciente de la necesidad de lograr el mayor consenso internacional posible si se quiere regular la IA de forma que sea sostenible, lo que exige que se garanticen los derechos fundamentales de las personas.
Y su liderazgo a la hora de regular la IA persigue, a mi juicio, un doble objetivo: de un lado, el de evitar el aislamiento de los estados miembros dentro de la carrera global por la supremacía tecnológica que ofrece el desarrollo de esta tecnología (y todas las innovaciones que van a derivarse de aquella). Y, de otro lado, tratar de diseñar un esquema de cumplimiento universal, en la convicción de que los nuevos escenarios que dibuja la IA deben regirse por criterios y principios éticos que deben ser comunes y aplicables a toda la humanidad, sin excepción.
El legislador europeo siempre ha sido consciente de la necesidad de lograr el mayor consenso internacional posible si se quiere regular la IA de forma que sea sostenible
Para ello, el Consejo de Europa ha propuesto un marco regulatorio común para los países europeos, pero con tendencia y ambición global para aquellos otros estados que compartan los mismos valores y principios que conforman la Unión Europea. Así, la Comisión europea ha suscrito, en fecha 5 de septiembre, el Convenio Marco sobre IA, Democracia y estado de derecho (Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law).
Dentro de este espíritu integrador, las partes negociadoras del acuerdo incluyeron, además de a la Unión Europea, a otros Estados miembros del Consejo de Europa, la Santa Sede, los Estados Unidos, Canadá, México, Japón, Israel, Australia, Argentina, Perú, Uruguay y Costa Rica.
En cuanto a los objetivos y alcance de esta iniciativa, podemos afirmar que el documento se ha convertido en el primer acuerdo internacional jurídicamente vinculante sobre la IA que, además, está totalmente en línea con el nuevo Reglamento europeo de Inteligencia Artificial.
El Convenio reconoce que la IA ofrece una oportunidad para proteger y promover los derechos humanos
A la vista del contenido del citado convenio marco, parece que los principios y obligaciones ahí previstos se aplicarán a las actividades que componen el ciclo de vida de los sistemas de IA desarrolladas por autoridades públicas o actores privados que actúen en su nombre. En cuanto a los actores del sector privado, aunque todavía deben abordar los riesgos e impactos de los sistemas de IA de una manera que se alinee con los objetivos de la Convención, tienen la opción de aplicar las obligaciones de los Convenios directamente o implementar medidas alternativas y apropiadas.
Uno de los principales objetivos que persigue una iniciativa de esta naturaleza es el de lograr una gobernanza más clara y homogénea sobre el uso de la IA, especialmente en temas especialmente sensibles y preocupantes para el legislador europeo, quien es consciente de los riesgos que puede suponer el priorizar los intereses económicos, políticos y militares sobre la protección de los derechos de las personas.
Así las cosas, el Convenio reconoce que la IA ofrece una oportunidad para proteger y promover los derechos humanos, la democracia y el estado de derecho. Pero también identifica cuáles son aquellas situaciones que un acuerdo de estas características pretende evitar, entre otros:
- El menosprecio a la dignidad humana y a la autonomía individual.
- La discriminación en contextos digitales, creando o agravando desigualdades y limitando la libre participación de las personas en asuntos económicos, sociales y culturales.
- La represión a ciudadanos, incluyendo la vigilancia arbitraria y la censura, de manera que pueda erosionarse la privacidad y la libertad de los individuos.
Sin embargo, abordar un desafío de este tipo no es tarea fácil, pero la historia nos enseña que en otras épocas también se plantearon retos similares, que se gestionaron con resultados que podemos considerar eficaces, cuando no, positivos. En efecto, la estrategia de avanzar en la cooperación y el compromiso internacionales ha permitido avances destacables en la protección de los derechos de las personas en otras situaciones que también requerían una sólida base de colaboración global.
El motivo principal es el de que se produjeron determinados fenómenos que afectaban a la humanidad en su conjunto, y a su evolución. Sirva como ejemplo el de la regulación de las armas nucleares o la protección de la infancia, que -como sabemos- son asuntos que se configuran como asuntos esenciales dentro de la convivencia global que requiere nuestra concepción humana.
Y, a mi entender, la Inteligencia artificial y sus aplicaciones (en el sector médico, en la seguridad nacional, o en el sector educativo, etc.) son tecnologías que ya han cambiado el mundo, y que, si bien seguirá ofreciendo oportunidades de evolución y desarrollo, también trae consigo amenazas y riesgos para los derechos humanos.
La historia nos enseña que en otras épocas también se plantearon retos similares, que se gestionaron con resultados que podemos considerar eficaces, cuando no, positivos.
En línea con lo expuesto, los estados que suscriban el citado Convenio se comprometen a adoptar o -en su caso- a mantener las medidas legislativas, administrativas o de otro tipo que se consideren apropiadas para garantizar la adopción y el cumplimiento de las disposiciones en él previstas.
Lógicamente, para el caso europeo, la promulgación de un Reglamento sobre IA (RIA) ayuda enormemente a asentar las bases y a unificar criterios sobre qué tipo de medidas se consideran adecuadas y eficientes en cada momento dentro del territorio europeo. Para el resto de los países a los que no aplique el RIA, las medidas a adoptar deberán ser evaluadas a la vista de la gravedad y probabilidad de que se produzcan impactos adversos a lo largo del ciclo de vida de los sistemas de inteligencia artificial.
En cualquier caso, no podemos perder de vista la necesidad de que el diseño de este tipo de medidas se haga pensando en el estado de la técnica existente en cada momento, lo que se conoce en el argot legal como “future proof” o resistente al cambio. Es decir, que las medidas específicas u horizontales que se propongan, deberán poder aplicarse con independencia del tipo de tecnología utilizada.
SOBRE LA FIRMA Francisco Pérez Bes es socio en el área de Derecho Digital de Ecix Group y ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).
