El próximo 6 de diciembre está previsto que tenga lugar una nueva reunión que lleve a Europa a acercarse a la aprobación definitiva del reglamento que va a regular la inteligencia artificial.
Este proceso, como así puso de manifiesto META en el evento organizado por Ágora23 este mes de noviembre, ha estado marcado por la controversia derivada de la aparición de la IA generativa, y la conveniencia de incluirla en el borrador de regulación inicial, especialmente a la vista de la dificultad (si no imposibilidad actual) de comprender cuál puede ser el verdadero impacto que tenga esta categoría de inteligencia artificial en la sociedad europea.
Y es que, como es sabido, el objetivo de esta normativa no era el de regular la tecnología como tal, sino el de prever y evitar los potenciales riesgos que se pueden derivar de su uso (risk based approach), en base a un principio de neutralidad tecnológica. Dicho con otras palabras, la propuesta de regulación europea de la inteligencia artificial se basaría en la capacidad de esta tecnología de provocar daños. De ahí que, como puede observarse a simple vista, la mayor parte de la norma se dedique a prohibir determinados usos y a exigir determinadas obligaciones para el uso de lo que se denomina “inteligencia artificial de alto riesgo”.
La IA generativa: el punto de fricción
Sin embargo, la propuesta de incorporar en el citado Reglamento la regulación de la IA generativa -del tipo chatGPT- ha puesto sobre la mesa el debate de si el nuevo alcance de la norma supondría regular la tecnología propiamente dicha y no únicamente su utilización, contraviniendo, de esta manera, el espíritu de future proof que se pretende caracterice dicha normativa.
Este desacuerdo se ha puesto claramente de manifiesto esta pasada semana, cuando un supuesto acuerdo (non paper) suscrito entre Francia, Italia y Alemania difundido el pasado 19 de noviembre y trasladado a la Presidencia española parecía evidenciar la oposición de estos países a que se incluya la IA generativa en la actual propuesta de normativa. En cambio, afirman algunos medios, se propondría dejar fuera del futuro reglamento a tal tecnología y desarrollar sistemas de autorregulación, basados en códigos de conducta, en línea con lo previsto en el proceso de Hiroshima iniciado hace unas semanas.
Se propondría dejar fuera del futuro reglamento a tal tecnología y desarrollar sistemas de autorregulación basados en códigos de conducta
En efecto, esta solución ya viene prevista en otras normativas europeas, tales como la Directiva sobre Prácticas Comerciales Desleales, el Reglamento General de Protección de Datos, o el propio borrador de Reglamento de IA, en cuyo artículo 69 se recoge específicamente esta posibilidad:
1. La Comisión y los Estados miembros fomentarán y facilitarán la elaboración de códigos de conducta destinados a promover la aplicación voluntaria de los requisitos establecidos en el título III, capítulo 2, a sistemas de IA distintos de los de alto riesgo, sobre la base de especificaciones y soluciones técnicas que constituyan medios adecuados para garantizar el cumplimiento de dichos requisitos a la luz de la finalidad prevista de los sistemas.
2. La Comisión y el Comité fomentarán y facilitarán la elaboración de códigos de conducta destinados a promover la aplicación voluntaria a sistemas de IA de los requisitos relativos, por ejemplo, a la sostenibilidad ambiental, la accesibilidad para personas con discapacidad, la participación de partes interesadas en el diseño y desarrollo de los sistemas de IA y la diversidad de los equipos de desarrollo, sobre la base de objetivos claros e indicadores clave de resultados para medir la consecución de dichos objetivos.
3. Los códigos de conducta podrán ser elaborados por proveedores individuales de sistemas de IA, por organizaciones que los representen o por ambos, también con la participación de usuarios y de cualquier parte interesada y sus organizaciones representativas. Los códigos de conducta podrán abarcar uno o varios sistemas de IA, teniendo en cuenta la similitud de la finalidad prevista de los sistemas pertinentes.
4. La Comisión y el Comité tendrán en cuenta los intereses y necesidades específicos de los proveedores a pequeña escala y las empresas emergentes cuando fomenten y faciliten la elaboración de códigos de conducta.
Para implementar este enfoque, el citado tripartito propone que los desarrolladores de este tipo de IA tengan que diseñar una serie de documentación técnica que resuma la información sobre modelos entrenados, sobre las capacidades y límites del propio modelo, y que se base en las mejores prácticas dentro de la comunidad de desarrolladores. Esta información se pondrá a disposición del público.
Entre las propuestas destaca que los desarrolladores tengan que diseñar documentación técnica que resuma la información sobre modelos entrenados
Además, se propone que los ejemplos proporcionados por estas empresas incluyan el número de parámetros, los usos previstos, las posibles limitaciones, los resultados de los estudios sobre sesgos y las pruebas de evaluación de su ciberseguridad (red team).
Finalmente, el acuerdo no oficial propondría que un organismo gestionara cualquier infracción del código de conducta por parte de las empresas y entidades adheridas, o sometidas al código si -como parece- su cumplimiento resulta obligatorio para todos estos actores.
2024: un año clave para la geopolítica y la IA
2024 es el año en el que más elecciones van a tener lugar en el mundo en toda su historia, lo que supone un gran reto de cara al futuro de la humanidad y, en particular, de ciertos aspectos especialmente controvertidos durante estos últimos tiempos. Entre ellos, las tecnologías disruptivas que ya aparecen en las agendas políticas de las principales potencias tecnológicas mundiales, y donde la IA parece tener un lugar destacado. Así parece con la propia presidencia española, donde Pedro Sánchez ha incluido, como una línea clara, el desarrollo de la inteligencia artificial en nuestro país.
En efecto, países cuya suma de ciudadanos suponen la mitad de la población del planeta están llamados a las elecciones el próximo año. Queda por ver cuál va a ser la evolución de las posturas de tales países con respecto a la Inteligencia Artificial, si bien debemos tener en cuenta las recientes afirmaciones de la actual Secretaria de Estado cuando decía, refiriéndose a la IA, que “nadie está esperando a Europa. Todo el mundo está avanzando”.
SOBRE LA FIRMA Francisco Pérez Bes es socio en el área de Derecho Digital de Ecix Group y ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).