Contratación online

Responsabilidad civil y daños causados por la inteligencia artificial. Propuesta del Parlamento Europeo

Inteligencia artificial y responsabilidad civil Tiempo estimado de lectura: 11 minutos

La semana pasada analizamos el Informe relativo a la inteligencia artificial (IA) y los derechos de propiedad intelectual e industrial de 2 de octubre de 2010 aprobado por el Parlamento Europeo (PE).

Hoy toca analizar el Informe con recomendaciones destinadas a la Comisión Europea sobre un régimen de responsabilidad civil en materia de IA de 5 de octubre de 2020, también aprobado por el PE. Este Informe ha sido firmado por el eurodiputado alemán Axel Voss y fue aprobado por 626 votos a favor, 25 en contra y 40 abstenciones.

1. ¿Cuál es el objetivo del Informe sobre IA y responsabilidad civil?

El Informe plantea una propuesta de Reglamento Europeo y del Consejo relativo a la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial para la Unión Europea (UE). Esta propuesta establece normas sobre las reclamaciones por responsabilidad civil de las personas físicas y jurídicas interpuestas contra los operadores de sistemas de IA.

2. ¿Cuál debe ser el objetivo de un marco jurídico sobre responsabilidad civil?

El PE parte de la premisa que el concepto de “responsabilidad civil” desempeña un doble rol en nuestra vida cotidiana:

  • Garantiza que una persona que haya sufrido un daño tenga derecho a reclamar y recibir una indemnización de quien se haya demostrado que es responsable de dicho daño.
  • Proporciona incentivos económicos para que las personas eviten causar daños y consideren en su comportamiento el riesgo de tener que pagar una indemnización

A partir de allí el PE establece que cualquier marco jurídico en materia de responsabilidad civil orientado al futuro debe dotar de seguridad jurídica e infundir confianza en la seguridad, fiabilidad y coherencia de los productos y servicios, incluidas las tecnologías digitales. Y ello con el fin de lograr un equilibrio entre la protección eficaz y equitativa de las potenciales víctimas de daños, y la promoción de la innovación y el desarrollo de nuevas tecnologías, productos o servicios por parte de las empresas, en particular de las empresas emergentes y las pymes.

3. ¿Qué se entiende por sistema de inteligencia artificial?

El PE lo define como todo sistema basado en programas informáticos o incorporado en dispositivos físicos que muestra un comportamiento que simula la inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno y la adopción de medidas, con cierto grado de autonomía, para lograr objetivos específicos.

4. ¿Qué retos jurídicos plantean los sistemas de IA al marco jurídico vigente sobre responsabilidad civil?

El Informe considera que los sistemas de inteligencia artificial plantean nuevos desafíos jurídicos a nuestro vigente sistema de responsabilidad civil.

Concretamente se señala que los sistemas de IA se caracterizan por su opacidad (o su carácter de “caja negra”), conectividad, dependencia de datos externos, vulnerabilidad frente a las violaciones de la ciberseguridad, capacidad de ser modificados mediante actualizaciones, capacidad de autoaprendizaje y mayor autonomía potencial.

Estas características únicas podrían hacer extremadamente costoso, o incluso imposible, determinar quién controlaba el riesgo asociado al sistema de IA o qué código, entrada o datos han provocado en última instancia su funcionamiento lesivo. Como consecuencia de ello, el perjudicado por un sistema de IA podría tener dificultades para obtener una indemnización adecuada.

5. ¿Directiva (UE) o Reglamento (UE)?

El Informe señala que, con el fin de evitar la fragmentación normativa en la UE, resulta fundamental aprobar una legislación uniforme basada en principios y preparada para el futuro y para todos los sistemas de IA.

El PE si bien considera que son preferibles reglamentaciones sectoriales específicas para la amplia gama de posibles aplicaciones, estima como necesario contar con un marco jurídico horizontal y armonizado basado en principios comunes con el fin de garantizar la seguridad jurídica, establecer una igualdad de normas en toda la UE y proteger eficazmente los valores europeos y los derechos de los ciudadanos.

De este modo, el PE presenta a la Comisión Europea para su aprobación, una propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial compuesto de 24 considerandos, 15 artículos y un Anexo (en adelante, el nuevo Reglamento).

6. La Directiva sobre responsabilidad por los daños causados por productos defectuosos

El PE resalta que todo debate político sobre el nuevo Reglamento debe ir acompañado de la necesaria revisión de la Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, sobre responsabilidad por los daños causados por productos defectuosos.

El Informe señala que dicha Directiva, si bien ha demostrado ser durante más de treinta años un medio eficaz para obtener una indemnización por un daño causado por un producto defectuoso, debe ahora revisarse para adaptarla al mundo digital y abordar los retos que plantean las tecnologías digitales emergentes, con aras a garantizar un elevado nivel de protección de los consumidores y de seguridad jurídica para ellos y las empresas.  Por tanto, el PE insta a la Comisión Europea a que evalúe si la referida Directiva debe transformarse o no en un Reglamento (UE).

En todo caso, el Informe resalta que la propuesta de nuevo Reglamento y la Directiva sobre responsabilidad por los daños causados por productos defectuosos constituyen los dos pilares de un marco común de responsabilidad civil para los sistemas de IA y requieren una estrecha coordinación y concertación entre todos los agentes políticos, a nivel nacional y de la UE.

7. Contenido de la propuesta de nuevo Reglamento

La propuesta de nuevo Reglamento se centra exclusivamente en las reclamaciones interpuestas contra el operador de un sistema de IA, ya sea este último un sistema de IA alto riesgo o no lo sea.

Informe sobre responsabilidad civil e inteligencia artificial

A continuación, resumimos las principales normas contenidas en la propuesta de nuevo Reglamento:

7.1 Régimen de responsabilidad objetiva para sistemas de inteligencia artificial de alto riesgo

Se establece que el operador de un sistema de IA de alto riesgo será objetivamente responsable de cualquier daño causado por una actividad física o virtual, un dispositivo o un proceso gobernado por dicho sistema de IA.

Por tanto, los operadores de un sistema de IA de alto riesgo no podrán eludir su responsabilidad civil alegando que actuaron con la diligencia debida o que el daño fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por un sistema de IA. Únicamente, estos operadores no serán responsables cuando el daño haya sido provocado por un caso de fuerza mayor.

El PE considera adecuado que por “operador” se entienda tanto el operador inicial como el operador final, siempre que este último no esté cubierto por la Directiva sobre responsabilidad por los daños causados por productos defectuosos. Señala que por “operador inicial” debe entenderse la persona física o jurídica que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA y se beneficia de su funcionamiento. Afirma que por “operador final” debe entenderse la persona física o jurídica que define, de forma continuada, las características de la tecnología, proporciona datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA.

Por “ejercicio del control” entiende cualquier acción del operador que influya en el funcionamiento del sistema de IA y, por consiguiente, en la medida en que expone a terceros a sus potenciales riesgos; considera que esas acciones podrían afectar al funcionamiento de un sistema de IA desde el inicio al fin, al determinar la entrada, la salida o los resultados, o podrían cambiar las funciones o procesos específicos dentro del sistema de inteligencia artificial.

Finalmente, por “alto riesgo” el PE alude al potencial significativo en un sistema de IA que funciona de forma autónoma para causar daños a una o más personas de manera aleatoria y que excede lo que cabría esperar razonablemente.

7.2 ¿Cuáles son los sistemas de IA de alto riesgo?

El PE recomienda que el nuevo Reglamento contenga un Anexo donde se enumeren de modo exhaustivo todos los sistemas de IA de alto riesgo y los sectores críticos en los que se utilizan.

Teniendo en cuenta el rápido avance tecnológico y del mercado a escala mundial y los conocimientos técnicos necesarios, el PE propone que la Comisión Europea revise dicho Anexo cada seis meses y, de ser el caso, lo pueda modificar mediante actos delegados. Para ello, se propone la creación de un comité permanente denominado “Comité técnico permanente – sistemas de IA de alto riesgo” (TCRAI, por sus siglas en inglés) con el fin de apoyar a la Comisión Europea en su tarea de revisión periódica del mencionado Anexo.

Este comité estaría compuesto por expertos nacionales de los Estados miembros y las partes interesadas, incluidas asociaciones de consumidores, asociaciones que representan a las personas afectadas, representantes de empresas de distintos sectores y tamaños, así como investigadores y científicos.

7.3 Importe y límite de la indemnización

Se plantea que el operador de un sistema de IA de alto riesgo considerado responsable de un daño con arreglo al nuevo Reglamento debe indemnizar a la persona afectada:

  • hasta un importe máximo de 2 millones de euros en caso de fallecimiento o de daños causados a su salud o a su integridad física;
  • hasta un importe máximo de 1 millón de euros en caso de daños morales significativos que resulten en una pérdida económica verificable o en daños a la propiedad.

7.4 Alcance de la indemnización

La cuantía de la indemnización que deberá abonar el operador de un sistema de inteligencia artificial de alto riesgo considerado responsable en caso de daños físicos seguidos de la muerte de la persona afectada se calculará teniendo en cuenta los siguientes criterios:

  • costes incurridos por el tratamiento médico antes de la muerte;
  • el perjuicio económico sufrido antes del fallecimiento como consecuencia de la interrupción o la reducción de la capacidad de generar ingresos;
  • el aumento de las necesidades de la víctima mientras durase el daño antes del fallecimiento.

El operador deberá además reembolsar los gastos funerarios de la persona afectada fallecida, así como indemnizar mediante el pago de una pensión alimenticia al hijo huérfano u a otro tercero con el que dicha persona mantenía una relación y tenía una obligación legal de apoyar.

7.5 Plazo de prescripción

Las demandas de responsabilidad civil contra un operador de un sistema de IA de alto riesgo relativas a daños a la vida, la salud o la integridad física prescriben a los 30 años a partir de la fecha en que se produjo el daño.

Las demandas de responsabilidad civil contra un operador de un sistema de IA de alto riesgo relativas a perjuicios materiales o daños morales considerables que resulten en una pérdida económica verificable prescriben a los:

  • 10 años contados desde la fecha que se produjo el menoscabo al patrimonio o la pérdida económica verificable resultante del daño moral significativo; y
  • 30 años a partir de la fecha en que tuvo lugar la operación del sistema de IA de alto riesgo que causó posteriormente el menoscabo al patrimonio o el daño moral.

7.6 Seguro de responsabilidad civil obligatorio

Todos los operadores de sistemas de inteligencia artificial de alto riesgo deberán contratar obligatoriamente un seguro de responsabilidad civil adecuado en relación con los importes y el alcance de la indemnización establecida en el nuevo Reglamento.

El PE considera que el seguro puede garantizar que las víctimas perciban una indemnización real y mutualizar los riesgos de todas las personas aseguradas. Cree además que la incertidumbre relacionada con los riesgos y la ausencia de datos históricos sobre las demandas de este tipo de nuevo producto de seguro no debe hacer que las primas de seguro sean prohibitivamente elevadas y convertirse así en un obstáculo para la investigación e innovación.

El Informe reconoce que es difícil concebir una solución de “talla única” y que el mercado de los seguros necesitará tiempo para adaptarse. Recomienda que la Comisión Europea colabore estrechamente con el mercado de los seguros para desarrollar productos de seguro innovadores que puedan colmar esta laguna en la materia.

7.7 Régimen de responsabilidad subjetiva para sistemas de inteligencia artificial que no sean de alto riesgo

El Informe propone que el operador de un sistema de IA que no constituya un sistema de IA de alto riesgo esté sujeto a responsabilidad subjetiva respecto de todo daño causado por una actividad física o virtual, un dispositivo o un proceso gobernado por el sistema de IA.

Por tanto, en este caso, el operador no será responsable si puede demostrar que no tuvo culpa en el daño causado, alegando para ello cualquiera de los siguientes motivos:

  • el sistema de IA se activó sin su conocimiento, al tiempo que se tomaron todas las medidas razonables y necesarias para evitar dicha activación fuera del control del operador;
  • se observó la diligencia debida a través de la realización de las siguientes acciones: la selección de un sistema de IA apropiado para las tareas y las capacidades adecuadas, la correcta puesta en funcionamiento del sistema de IA, el control de las actividades y el mantenimiento de la fiabilidad operativa mediante la instalación periódica de todas las actualizaciones disponibles.

En este caso, los operadores tampoco podrán eludir su responsabilidad civil alegando que el daño fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por un sistema de IA. Estos operadores no serán responsables cuando el daño haya sido provocado por un caso de fuerza mayor, igual como sucede con los operadores de sistemas de IA de alto riesgo,

7.8 Creación de fondos especiales de indemnización

El PE propone para casos excepcionales (cuando se produzcan daños colectivos donde la indemnización exceda de modo significativo los importes máximos establecidos y cuando un sistema de IA no clasificado como de alto riesgo y, por ende no esté asegurado, cause daños o perjuicios) que los Estados miembros creen fondos especiales de indemnización para responder a estas necesidades específicas.

7.9 Cláusulas contractuales de exoneración y limitación de responsabilidad civil

El PE recomienda evitar la inclusión de este tipo de cláusulas en las relaciones contractuales entre un operador de un sistema de IA y una persona física o jurídica que sufra un daño o perjuicio como consecuencia de un sistema de IA. El nuevo Reglamento sanciona con la nulidad dicho tipo de cláusulas.

8. Valoración

La propuesta de nuevo Reglamento se sustenta en un enfoque basado en el riesgo donde se establece un régimen común de responsabilidad objetiva para los sistemas de inteligencia artificial de alto riesgo.

En la línea de lo establecido en el Informe sobre inteligencia artificial y propiedad intelectual e industrial ya analizado, el PE reafirma la idea que los sistemas de IA no tienen personalidad jurídica ni conciencia humana, por lo que la responsabilidad civil será atribuida siempre a la persona física o jurídica que cree el sistema de IA, lo mantenga, lo controle o intervenga en él.

Finalmente, hay que señalar que la propuesta de nuevo Reglamento se ha inspirado en la Directiva 2009/103/CE del Parlamento Europeo y del Consejo, de 16 de septiembre de 2009, relativa al seguro de responsabilidad civil que resulta de la circulación de vehículos automóviles, así como al control de la obligación de asegurar esta responsabilidad en lo referido al establecimiento de un seguro obligatorio de responsabilidad civil y sus topes indemnizatorios.


Algoritmo Legal es una firma de abogados boutique especializada en el asesoramiento legal de proyectos y negocios que utilicen inteligencia artificial y/o tecnología blockchain, y de personas vean afectados sus derechos por el uso de dichas tecnologías. Ofrecemos además asesoría jurídica mercantil especializada en venture capital y capital riesgo a startups e inversores de proyectos tecnológicos. Contáctanos aquí.
Responsabilidad civil y daños causados por la inteligencia artificial. Propuesta del Parlamento Europeo
5 (100%) 1 vote[s]

Licencia de Creative Commons

Artículo bajo licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

 

"NO REPRODUZCAS SIN CITAR LA FUENTE"

Estimado lector: dispones del permiso del titular de Algoritmo Legal y del autor de este artículo para reproducir todo o una parte del mismo siempre que cites la fuente de origen. Simplemente indica lo siguiente:

 

Ricardo Oliva León. Responsabilidad civil y daños causados por la inteligencia artificial. Propuesta del Parlamento Europeo [online]. Algoritmo Legal. 05/11/2020. https://www.algoritmolegal.com/tecnologias-disruptivas/responsabilidad-civil-y-danos-causados-por-la-inteligencia-artificial-propuesta-del-parlamento-europeo/. Consulta: [indicar la fecha en que has consultado el artículo]

 

Ricardo Oliva León

Abogado y socio director de Algoritmo Legal. Especializado en Derecho de las nuevas tecnologías y Derecho mercantil. Imparte clases en cursos de postgrado, escribe y habla sobre las cuestiones jurídicas que plantean internet, la inteligencia artificial, la blockchain, los pactos de socios, las startups y la legaltech. Su cuenta de Twitter es @RicarditoOliva y su email es ricardo@algoritmolegal.com

También te podría gustar...

1 respuesta

  1. 20/11/2020

    […] Siguiendo el orden cronológico de las fechas de los Informes antedichos, en esta oportunidad voy a analizar en primer lugar el Informe relativo a la IA y los derechos de propiedad intelectual e industrial. En próximas entradas analizaré los otros dos (ver aquí). […]

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con asterisco.

Apariciones en Medios

Thomson Reuters El País Europa Press Wolters Kluwer Cadena Ser La Vanguardia Cinco Días Lawyerpress Law & Trends Confilegal Lefebvre Heraldo de Aragón El Peruano Criptonoticias 20 minutos
error: Este contenido está protegido.
×