El legislador español ante el reto de regular la responsabilidad de la IA

En el marco de la aprobación definitiva de la propuesta de Reglamento de IA "es importante no perder de vista la necesidad de adaptación de la regulación actual en materia de responsabilidad”, recalca Francisco Pérez Bes, experto en derechos digitales

iustitia est constans et perpetua voluntas ius suum cuique tribuendi

Ulpiano

En estos días, en el que todas las miradas están puestas en la aprobación definitiva de la propuesta de Reglamento de IA y en las nuevas obligaciones que traerá consigo, es importante no perder de vista la necesidad de adaptación de la regulación actual en materia de responsabilidad, que está llamada a ser el arma principal (si no la única) a la hora de enfrentarse a los posibles daños que dicha tecnología pueda causar a los usuarios, actúen en condición de consumidores, o no. Y, derivado de lo anterior, el régimen de atribución de la responsabilidad de los causantes de los daños provocados por el uso inadecuado de una IA.

Como es sabido, la Comisión Europea propuso, en su White paper de 2020, un paquete legislativo con tres tipos de medidas para resolver los nuevos problemas planteados por la IA, como eran:

  1. Un marco regulatorio horizontal que garantizase la protección de los derechos fundamentales y los riesgos de seguridad específicos derivados de los sistemas de IA. En este apartado se enmarca el Reglamento de IA.
  2. Una revisión de la actual regulación sobre seguridad de los productos.
  3. Reglas europeas sobre la responsabilidad derivada de los sistemas de IA.

Con respecto a este tercer aspecto, el legislador europeo es consciente de que las propias características de esta nueva tecnología (como, entre otras, el comportamiento autónomo y difícil predictibilidad, la opacidad o falta de transparencia en la toma de decisiones y, en definitiva, su complejidad) hacen muy difícil, o muy costoso, poder identificar quién es la persona legalmente responsable, así como poder obtener pruebas suficientes para poder presentar una reclamación válida.

El reto de regular la responsabilidad de la IA

Así las cosas, a la hora de enfrentarnos al reto de regular la responsabilidad de la IA, nos encontramos -principalmente- ante tres problemas:

A todo ello cabe añadir un elemento adicional, como es el que tiene que ver con la cobertura aseguradora de los daños provocados por la inteligencia artificial.

El legislador europeo es consciente de que las propias características de esta nueva tecnología hacen muy difícil, o muy costoso, poder identificar quién es la persona legalmente responsable y obtener pruebas suficientes para poder presentar una reclamación válida

A mi entender, este aspecto está llamado a convertirse en una cuestión muy relevante dentro de este nuevo escenario de gestión de riesgos, donde no solo confluyen cuestiones meramente tecnológicas, sino que se extienden a otro tipo de riesgos, donde destacan los socioeconómicos y los medioambientales.

Llegados a este punto, parece necesario abrir el debate sobre una cuestión estratégica y de competitividad para España.

En efecto, parece necesario preguntarnos cuál va a ser el modelo de responsabilidad civil por el que va a apostar el legislador español una vez el Reglamento de IA sea de plena aplicación; y, sobre todo, cuál va a ser el régimen de carga de la prueba que se va a requerir a los demandantes en un proceso por daños causados por la IA. Por poner un ejemplo, ¿se requerirá demostrar el mal funcionamiento del sistema de IA, o bastará acreditar la producción del daño, invirtiendo de este modo la cara de la prueba a la empresa usuaria?

Efectos del modelo de regulación

Dicho con otras palabras, hay que tener en cuenta los efectos que el modelo de regulación que se imponga pueda tener sobre las obligaciones de cumplimiento que exija la ley española, pues de ello va a depender los costes de cumplimiento de las empresas y los costes de litigación que deban asumir los ciudadanos y las empresas en caso de conflicto.

Adicionalmente, los costes derivados de las coberturas aseguradoras también pueden variar sustancialmente (especialmente si se obliga a las empresas a disponer de un seguro obligatorio en determinados casos, como pueda ser para usar sistemas de alto riesgo), lo que puede impactar muy negativamente en la competitividad de las empresas españolas, o en el atractivo de este país para, por ejemplo, recibir inversiones extranjeras.

Es urgente abrir una reflexión sobre qué modelo de responsabilidad, extracontractual y por daños causados por productos defectuosos, quiere España para la IA y analizar los impactos económicos y de seguridad jurídica que dicho modelo puede tener

Finalmente, y sin perjuicio del impacto en el ecosistema empresarial español, la elección de un modelo regulatorio u otro, también debe tenerse en cuenta a la hora de diseñar herramientas de protección de los consumidores y usuarios, quienes deben contar con recursos para poder defender sus derechos, bien directamente ante los tribunales, bien a través del sistema público de consumo, al que habrá que exigirle una adaptación a los nuevos tiempos para la debida protección de un consumidor hiperconectado y expuesto a nuevos riesgos.

En definitiva, es urgente abrir una reflexión sobre qué modelo de responsabilidad, extracontractual y por daños causados por productos defectuosos, quiere España para la IA, y analizar los impactos económicos y de seguridad jurídica que dicho modelo puede tener. De lo contrario, la regulación nacional puede convertirse en un freno a la investigación, al desarrollo, a la sostenibilidad y, en definitiva, a la competitividad y a la confianza en la propia tecnología y en las empresas que la usen.

Un enorme reto que nos obliga a estar a la altura de los cambios que el futuro de la IA trae consigo: de un lado, porque es una tecnología que no mostrará ningún tipo de remordimiento para dejar atrás a los que no sean capaces de adaptarse a esta nueva realidad.

SOBRE LA FIRMA
Francisco Pérez Bes es socio en el área de Derecho Digital de Ecix Group y ex Secretario General del Instituto Nacional de Ciberseguridad (INCIBE).
Salir de la versión móvil