La Comisión Europea ha revelado un manual de buenas prácticas elaborado por especialistas de la Oficina Europea de IA, dirigido a facilitar a las corporaciones la adopción de las nuevas normativas europeas para controlar los riesgos de sistemas de Inteligencia Artificial de uso común, como ChatGPT o Gemini, que se implementarán a partir del 2 de agosto próximo.
«Es un paso importante para que los modelos de IA más avanzados estén disponibles en Europa no solo de forma innovadora, sino también segura y transparente», manifestó Henna Virkkunen, vicepresidenta comunitaria para la Soberanía Tecnológica, la Seguridad y la Democracia, quien ha alentado a los proveedores a sumarse a esta iniciativa opcional.
El Código de Buenas Prácticas, presentado recientemente en Bruselas, aún espera la aprobación oficial tanto del cuerpo ejecutivo europeo como de los 27 miembros. Aunque no es obligatorio, las fuentes de la Comisión Europea sostienen que este código proporcionará claridad legal a quienes lo adopten, y recuerdan que no adherirse no libera a las empresas de la responsabilidad de cumplir con el nuevo marco regulatorio para la IA de uso general.
Adicionalmente, los adherentes al código experimentarán una reducción en la carga administrativa y gozarán de mayor seguridad jurídica en comparación con aquellos que opten por demostrar conformidad de otras formas. Bruselas complementará esta guía con más directrices antes de que se active la normativa sobre IA de uso general, con el fin de esclarecer los alcances de estas nuevas regulaciones.
Este esfuerzo busca asistir a los proveedores de IA en la resolución de incertidumbres que puedan complicar la aplicación de las normas comunitarias y prevenir que la falta de claridad legal afecte la innovación europea en este ámbito.
TRANSPARENCIA, DERECHOS DE AUTOR Y SEGURIDAD
El código enfocará sus recomendaciones en la transparencia, los derechos de autor y la seguridad. Los proveedores que decidan no unirse deberán probar que cumplen con las normativas de otras maneras.
Según un comunicado de Bruselas, los modelos de IA de uso general son fundamentales para muchos sistemas de IA en la UE. La legislación europea les exigirá asegurar una transparencia adecuada, por ejemplo, mediante un formulario estándar de documentación de fácil manejo.
El comunicado también señala que algunos modelos de IA de uso general podrían representar riesgos sistémicos, como amenazas a los derechos fundamentales o la seguridad, incluyendo la disminución de las barreras para el desarrollo de armas químicas o biológicas, o riesgos de pérdida de control sobre el modelo.
La normativa europea de IA demanda que los proveedores de modelos evalúen y mitiguen estos riesgos, por lo que la sección de seguridad del código sugiere las mejores prácticas pertinentes para la gestión de riesgos sistémicos.















