Una esperada (¿y acertada?) definición de Inteligencia Artificial

La referencia a sistemas implícitos permitiría incluir a sistemas de conducción autónoma que están programados para cumplir con las reglas de tráfico o a un modelo de lenguaje como ChatGPT, donde los objetivos del sistema no se programan explícitamente

Como es sabido, una de las mayores preocupaciones que ha mostrado el sector de la inteligencia artificial durante todo este proceso de regulación ha sido el de la ausencia de una definición clara y concisa, que -además- garantice su actualización durante un periodo de tiempo lo más extenso posible, lo que se viene conociendo con el término “future proof”.

Es decir, que, a la vista de la rápida evolución de esta tecnología, la norma no se limite a recoger una definición que no contemple aquellas nuevas tipologías de inteligencia artificial que -previsiblemente- vayan a ir surgiendo en los próximos meses.

Lo contrario, en efecto, sería un inconveniente importante, que requeriría tempranas actualizaciones de un reglamento que, ya de por sí, ha retrasado su aprobación como consecuencia de ciertas desavenencias surgidas -precisamente- por la aparición de los modelos generativos, inicialmente no previstos en la redacción de la propuesta inicial.

Definición

Con respecto al asunto de las definiciones, la propuesta actual de Reglamento de Inteligencia Artificial define, en su artículo 3.1, “sistema de IA” como el software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa.

Los cambios introducidos por la OCDE en la definición original se reflejan en el propio documento, donde se muestran las adiciones y las eliminaciones introducidas

De hecho, en su documento inicial sobre fundamentos para una IA fiable, la OCDE ya propuso una redacción que, a mi entender, ya planteaba ciertas dudas. En este caso, la definición se refería a los sistemas de inteligencia artificial como “sistemas de software diseñados por seres humanos”, cuando nada hace prever que en un futuro cercano estos sistemas no vayan a ser diseñados por máquinas.

Con respecto a la necesidad de actualizar el concepto, la OCDE publicó, el pasado 28 de noviembre, una definición actualizada de lo que debe entenderse por IA, quedando como sigue:

Un sistema de IA es un sistema basado en máquinas que, para un conjunto dado de objetivos explícitos o implícitos definidos por el ser humano, infiere, a partir de la entrada que recibe, cómo generar resultados como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos reales o virtuales. Los diferentes sistemas de IA varían en sus niveles de autonomía y adaptabilidad después del despliegue.

Los cambios introducidos por la OCDE en la definición original se reflejan en el propio documento, donde se muestran las adiciones y las eliminaciones introducidas:

An AI system is a machine-based system that can, for a given set of human-defined explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as makes predictions, content, recommendations, or decisions that can influenceing physical real or virtual environments. Different AI systems are designed to operate with varying in their levels of autonomy and adaptiveness after deployment.

Fase de construcción de un sistema de IA

Fase de uso de una IA

Imágenes extraídas de: https://oecd.ai/en/wonk/ai-system-definition-update

Justificación de las actualizaciones

A) Sobre el matiz relativo a los objetivos, la OCDE justifica la actualización de ese extremo por el hecho de que existe un consenso científico que afirma que los objetivos de un sistema de IA pueden, por ejemplo, estar directamente programados en el sistema por un desarrollador humano y, por tanto considerados explícitos; o por ejemplo, a través de un conjunto de reglas especificadas por un ser humano, o cuando el sistema es capaz de aprender nuevos objetivos, lo que podría considerarse como datos implícitos.

La OCDE justifica la actualización de ese extremo por el hecho de que existe un consenso científico que afirma que los objetivos de un sistema de IA pueden estar directamente programados en el sistema por un desarrollador humano

La referencia a sistemas implícitos permitiría incluir a, por ejemplo, sistemas de conducción autónoma que están programados para cumplir con las reglas de tráfico (pero que no «conocen» su objetivo implícito de proteger vidas), o a un modelo de lenguaje como ChatGPT, donde los objetivos del sistema no se programan explícitamente, sino que se adquieren a través del proceso de imitación del aprendizaje partiendo, en parte, del texto generado por el hombre y, en parte, del proceso de aprendizaje por refuerzo a partir de la retroalimentación humana, concluye la OCDE.

B) Sobre la referencia a “entradas” (inputs), la actualización llevada a cabo se justifica por el hecho de que la referencia a «inferir, a partir de la entrada que recibe» debe incluir las reglas y los datos que pueden ser proporcionados no sólo por humanos, sino también por máquinas, en los sistemas operativos de IA.

A este respecto, se dice que un sistema de IA «infiere resultados» (outputs) cuando recibe entradas relacionadas con el entorno, y calcula una salida procesando aquellas a través de modelos y algoritmos subyacentes.

Por ejemplo, un sistema de reconocimiento de objetos visuales implementado por una red neuronal profunda infiere cómo generar salidas (en este caso, una clasificación del objeto en la imagen) procesando los píxeles de la imagen (la entrada) a través de expresiones algebraicas parametrizadas.

C) El motivo que lleva a la adición de la palabra «contenido» es el de que la definición debe incluir a los sistemas de IA generativos, que son los que producen predicciones, recomendaciones o decisiones, incluyendo texto, vídeo o imágenes.

D) Entornos físicos: la sustitución del término «real» por el de «físico» trata de clarificar que los entornos virtuales también deben ser considerados reales, en el sentido de que generan entradas y acciones en el sistema de IA.

E) Adaptabilidad: la adición de tal concepto trata de reflejar que algunos sistemas de IA pueden seguir evolucionando después de su diseño e implementación (por ejemplo, aquellos sistemas de recomendación que se adaptan a las preferencias individuales o sistemas de reconocimiento de voz que se adaptan a la voz del usuario).

Conclusión

A la vista de lo anterior, si la nueva definición propuesta por la OCDE resultase comúnmente aceptada y, en su caso, pudiera servir como base para fundamentar las obligaciones que va a recoger el futuro Reglamento de Inteligencia Artificial, podría aportar seguridad jurídica a un sector que necesita cada vez más de claridad de conceptos con tal de poder conocer a qué se está refiriendo el legislador europeo a la hora de establecer prohibiciones y imitaciones al uso de esta tecnología.

SOBRE LA FIRMA
Francisco Pérez Bes es socio en el área de Derecho Digital de Ecix Group y ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).
Salir de la versión móvil