Es sabido que cada vez que surge alguna tecnología disruptiva (y todavía nos quedan muchas por ver) da comienzo un proceso de maduración, que parte de un deslumbramiento inicial centrado en la usabilidad de la tecnología y su potencial, para pasar a un debate sobre cuestiones relacionadas con los riesgos y amenazas que trae consigo la aplicación generalizada de la misma, habitualmente centradas en la defensa de la propiedad intelectual y la privacidad, por citar algunas.
En el caso de la inteligencia artificial no ha sido distinto, aunque la velocidad de penetración -quizás- haya sido mayor que en otros casos, como ocurrió con la nube o el blockchain.
Sin embargo, esa actitud, que raya lo que algunos autores han calificado, acertadamente a mi modo de ver, de ciberfatalismo, no debe desviarnos de nuestro deber de visualizar cuál puede ser el impacto que la implementación de tal tecnología vaya a tener en otros aspectos jurídicos, sociales y económicos.
Cada vez que surge alguna tecnología disruptiva, da comienzo un proceso de maduración que parte de un deslumbramiento inicial centrado en la usabilidad de la tecnología y su potencial
Si nos centramos en el ámbito empresarial, no podemos olvidar que la adopción de la Inteligencia artificial forma parte de la estrategia de innovación y mejora continua de cualquier compañía que quiera implementarla en cualquier de sus procesos.
En efecto, las empresas se esfuerzan por mantenerse a la vanguardia de la tecnología para ofrecer productos y servicios competitivos y de alta calidad. Y, en este escenario, la integración de tecnologías, tales como la IA, se alinea con su enfoque estratégico, asegurando que tal implementación aporta valor y está en consonancia con los objetivos a largo plazo de la organización.
Cuando la IA encontró al ESG
Derivado de este carácter basado en la sostenibilidad e impacto social, podemos identificar una serie de objetivos comunes en las que la IA puede confluir con las obligaciones de reporte de información no financiera, centradas en lo que se conoce comúnmente como criterios ESG (Medioambiente, Impacto Social y Gobernanza):
- Transparencia: se exige información sobre cómo se utilizan los algoritmos y los datos, así como sobre el impacto ambiental, social y ético de la tecnología, y las medidas que implementan para gestionar tales riesgos.
- Gestión de Riesgos: las empresas deben identificar y gestionar los riesgos asociados al uso de IA, incluidos los relacionados con la sostenibilidad medioambiental, o el sesgo algorítmico.
- Responsabilidad Ética: el uso de IA debe alinearse con valores y principios de buen gobierno corporativo y de responsabilidad social.
- Impacto Social: el despliegue de IA puede tener un impacto significativo en el empleo y en las actividades concurrenciales de la empresa, por lo que se espera que las entidades informen sobre tales implicaciones.
- Innovación Responsable: las empresas que usen IA deben priorizar la innovación que equilibre los beneficios comerciales con consideraciones éticas y sociales.
Las empresas que usen IA deben priorizar la innovación responsable, que equilibre los beneficios comerciales con consideraciones éticas y sociales
La IA en el mercado cotizado
Actualmente, las grandes empresas del IBEX se encuentran en pleno proceso de compromiso corporativo de uso ético y transparente de la inteligencia artificial y, a estos efectos, han comenzado a diseñar políticas internas y sistemas de gobernanza que garanticen un uso respetuoso de los derechos de los individuos, en línea con los principios de equidad, responsabilidad y privacidad que rigen el modelo de gobierno de las sociedades cotizadas.
Así las cosas, el análisis de impacto que hagan las empresas a la hora de poder determinar cómo afecta la IA en su actividad, puede convertirse en un proceso de recopilación de información relevante con el que elaborar el reporte de información no financiera, previsto por la Ley 11/2018, de 28 de diciembre, en materia de información no financiera y diversidad, y el artículo 49.6 al Código de Comercio.
Dicha norma exige a las empresas afectadas que reporten al mercado, en general, y a los grupos de interés, en particular, información -entre otra- sobre aspectos medioambientales, sociales y de personal, respeto a los derechos humanos, lucha contra la corrupción y de buen gobierno en la toma de decisiones empresariales.
El nuevo Reglamento de IA ofrece a las empresas una herramienta muy interesante de cara a poder dar cumplimiento a las obligaciones de ESG (Medioambiente, Impacto Social y Gobernanza)
Con respecto a este asunto, el nuevo Reglamento de IA ofrece a las empresas una herramienta valiosa para enfrentarse a un cumplimiento efectivo de estas obligaciones de ESG. Nos referimos al artículo 69.2 del Reglamento de Inteligencia artificial y el reconocimiento de los códigos de conducta que aquél hace de forma expresa:
Nos referimos al artículo 69.2 del Reglamento de Inteligencia artificial y el reconocimiento de los códigos de conducta que aquél hace de forma expresa:
La Comisión y el Comité fomentarán y facilitarán la elaboración de códigos de conducta destinados a promover la aplicación voluntaria a sistemas de IA de los requisitos relativos, por ejemplo, a la sostenibilidad ambiental, la accesibilidad para personas con discapacidad, la participación de partes interesadas en el diseño y desarrollo de los sistemas de IA y la diversidad de los equipos de desarrollo, sobre la base de objetivos claros e indicadores clave de resultados para medir la consecución de dichos objetivos.
Este aspecto, el de los códigos de conducta en IA, es un elemento todavía por explorar desde los sectores empresariales, si bien una buena comprensión de su funcionamiento y utilidad puede resultar en una forma eficaz de gestión de determinados riesgos sociales y medioambientales para las empresas preocupadas por aspectos como la sostenibilidad.
SOBRE LA FIRMA Francisco Pérez Bes es socio en el área de Derecho Digital de Ecix Group y ex secretario General del Instituto Nacional de Ciberseguridad (INCIBE)