El verdadero reto de la IA es operativo, no normativo

El director de IA de Adigital, Justo Hidalgo, analiza en Demócrata el giro hacia una fase decisiva en la regulación de la inteligencia artificial, donde la alfabetización, los estándares técnicos y los entornos de prueba marcarán la diferencia entre la teoría normativa y su aplicación real en Europa

4 minutos

El director de IA de Adigital, Justo Hidalgo

El director de IA de Adigital, Justo Hidalgo

Comenta

Publicado

4 minutos

Más leídas

El momento regulatorio en inteligencia artificial ha cambiado. Ya no estamos en la fase de grandes principios, donde se debatían valores abstractos y objetivos genéricos, sino en la difícil, consiguiendo que la regulación sea coherente, técnicamente viable y compatible con la competitividad europea. Lograrlo requiere que avancemos de manera paralela en tres ámbitos profundamente conectados: comprensión, ejecución y evaluación.

Entender para poder cumplir

Como dice el refrán ‘a buen entendedor, pocas palabras bastan’, y en el caso de la IA, la alfabetización es una condición muy relevante para que cualquier marco regulatorio funcione. Más allá de la ambigüedad del artículo 4 del Reglamento Europeo de IA, la alfabetización debe ser una exigencia operativa, proporcional y demostrable, especialmente en organizaciones que diseñan, despliegan o supervisan sistemas con impacto real. De lo contrario, corremos el riesgo de crear obligaciones retóricas, muy visibles en el discurso público, pero débiles en la práctica.

Para muchas pymes y empresas medianas, esta concreción ofrece más seguridad jurídica que una obligación abierta. Teniendo en cuenta que el artículo 4 se centra en formar a las personas responsables de los sistemas de inteligencia artificial de la organización, consideramos que es necesario establecer una base formativa clara y verificable, algo que desde Adigital proponemos de manera estructurada en tres itinerarios: dirección, técnico y operativo.

A esto se añade un conjunto de líneas de cultura organizativa: regulación, supervisión humana, gestión de riesgos, gobernanza del dato, transparencia y ciberseguridad, que permita demostrar madurez y preparación institucional. Solo así la alfabetización dejará de ser un concepto abstracto.

“La alfabetización debe ser una exigencia operativa, proporcional y demostrable, especialmente en organizaciones que diseñan, despliegan o supervisan sistemas con impacto real”

Estándares claros para una ejecución real

En segundo lugar, no basta con comprender la regulación; es imprescindible disponer de un código de buenas prácticas y de estándares claros. Aquí entra en juego el trabajo de normalización CEN-CENELEC (las organizaciones europeas encargadas de elaborar estándares técnicos armonizados), uno de los grandes cuellos de botella en los últimos años.

De nada sirve exigir obligaciones complejas de alto riesgo si los estándares comunes, las especificaciones técnicas y las guías de implementación no están suficientemente desarrolladas.

El Ómnibus de IA promete consolidar este marco, pero el avance de los diferentes estándares sigue siendo complicado. Los códigos de buenas prácticas que publica la Oficina Europea de IA son necesarios y muy útiles, al igual que las guías publicadas por la AESIA, (la agencia de supervisión); pero no suficientes.

Solo un enfoque basado en estándares implementables, integrables en herramientas GRC (gobernanza, riesgos y cumplimiento) y accesibles tanto para pymes como para grandes organizaciones permitirá alcanzar un cumplimiento efectivo en cuestiones críticas. Esto es clave en sectores como salud, transporte o finanzas, donde los riesgos no son teóricos, sino reales.

El sandbox como laboratorio

En tercer lugar, la evaluación, donde consideramos prominente el uso de los sandboxes regulatorios, los entornos controlados que permiten una colaboración público-privada con exigencia pero con tranquilidad desde un punto de vista regulatorio a las organizaciones. La experiencia pionera del sandbox español 2025-2026 debe convertirse en un instrumento estructural de gobernanza, que trascienda la IA y se aplique a tecnologías estratégicas futuras.

Es importante distinguir entre dos modelos de sandbox. El primero, puramente regulatorio, sirve para interpretar reglas y entender su alcance. El segundo, regulatorio-tecnológico, va mucho más allá: permite probar documentación, metodologías, evaluación, trazabilidad y supervisión en entornos controlados o reales. Este último enfoque quizá sea más complejo, pero es el que Europa necesita para convertir la regulación en una ventaja competitiva, capaz de orientar la innovación segura y responsable.

Esta hoja de ruta solo funciona si cada actor asume su papel. Por su parte las instituciones deben traducir principios en políticas concretas: formación financiada, impulso a estándares y gobernanza coordinada a escala europea. Y las empresas no pueden esperar a que el marco sea perfecto, pues su competitividad y productividad futura dependerá de si adaptan su modelo de negocio a los requisitos de la regulación. Finalmente, los ciudadanos, destinatarios finales de estos sistemas, también tienen un rol activo pues su comprensión informada y su exigencia son la base de la legitimidad social de estas tecnologías.

“Las instituciones deben traducir principios en políticas concretas: formación financiada, impulso a estándares y gobernanza coordinada a escala europea”

De la teoría a la práctica

Europa fue pionera legislando sobre inteligencia artificial. Ahora es el momento de demostrar que funciona en la práctica. Implementar regulaciones inteligentes, además de  una obligación, es también un instrumento para reforzar la competitividad europea, fomentar la innovación segura y garantizar que los sistemas de IA sirvan a las sociedades de manera responsable. La regulación de la IA ya no se juega en los principios; se juega en la implementación.