Autor: Ricardo Oliva León
La propuesta de Directiva sobre responsabilidad por los daños causados por productos defectuosos (publicada el 28.09.2022) establece un régimen de responsabilidad extracontractual ya que se refiere al carácter defectuoso de un producto y solo prevé una compensación por las pérdidas derivadas o resultantes de la muerte, las lesiones corporales, los daños materiales (destrucción de cualquier propiedad) lo que incluye la pérdida o corrupción de datos. En otras palabras, lo que se indemniza aquí son los daños y perjuicios causados por la falta de seguridad.
Los sistemas de inteligencia artificial (IA) y los bienes basados en IA deben ser considerados productos y, por ello, entran en el ámbito de aplicación de esta propuesta de Directiva, lo que significa que cuando su ejecución o uso causen daños, pueda obtenerse una indemnización sin que la persona perjudicada tenga que demostrar la culpa del fabricante, al igual que cualquier otro producto defectuoso. El desarrollador o productor de programas informáticos (incluidos los proveedores de sistemas de IA) serán tratados como fabricantes al amparo de esta nueva Directiva.
La evidencia empírica demuestra que los departamentos de recursos humanos de las grandes y medianas empresas están utilizando cada vez más software de aprendizaje automático (algoritmos de inteligencia artificial) para medir el rendimiento laboral de las personas e, incluso, para tomar la decisión de despedirlas o de retenerlas. Estos programas de ordenador, ciertamente pueden proveer información útil (especialmente, métricas) a headhunters y directores de recursos humanos. Sin embargo, también puede generar riesgos para las personas que son objeto de ellos, algunos de los cuales tienen que ver con la salvaguarda de sus derechos fundamentales.
En comparación con los casos que no tienen relación alguna con la inteligencia artificial (IA), a las víctimas de daños causados por sistemas de IA, en la práctica, les puede resultar difícil o excesivamente costoso determinar cuál es la persona responsable del daño sufrido.
Dicha dificultad y el elevado coste obedecen a las características propias de la IA, incluidas su complejidad técnica, su autonomía, la inexplicabilidad de su funcionamiento interno y su opacidad. Esto último está relacionado con el llamado efecto de caja negra que se refiere a los casos que no resulta posible explicar por qué un modelo de IA ha generado un resultado o una decisión particular ni qué combinación de factores contribuyeron a ello.
Con el fin de superar estos obstáculos, el pasado 28.09.2022 la Comisión Europea publicó la Propuesta de Directiva del Parlamento y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (la Directiva sobre responsabilidad en materia de IA). En el presente artículo realizamos un análisis sobre esta importante propuesta normativa.
En el presente artículo se analizan los criterios establecidos recientemente por la Resolución de 21 de junio de 2021, de la Dirección General de Seguridad y Fe Pública (Boletín Oficial del Estado de 8 de julio de 2021) para determinar cuando existe “identidad” entre una denominación social solicitada y otra ya registrada en el Registro Mercantil Central. Además se analizan los criterios legales establecidos para evitar la confusión en el tráfico mercantil entre las denominaciones sociales y los signos distintivos, a los que también se refiere dicha resolución.
El Real Decreto-ley 9/2021, de 11 de mayo ha modificado el Texto Refundido del Estatuto de los Trabajadores (ET) de España. Una de tales modificaciones faculta al órgano de representación de los trabajadores en las empresas de más de 50 trabajadores (el llamado “Comité de Empresa”) a ser informado de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles (el nuevo artículo 64.4.d) del ET). Es la primera vez que una norma española impone al empresario una obligación de transparencia algorítmica y un deber de explicabilidad sobre el funcionamiento de los algoritmos de inteligencia artificial que utiliza para adoptar decisiones que afecten las condiciones laborales y el acceso y mantenimiento del empleo.
El pasado 3 de junio de 2021 se publicó la propuesta de la Comisión Europea de un marco regulatorio para una identidad digital europea. El objetivo es que a través de sus monederos de identidad digital europea, los ciudadanos puedan acreditar su identidad y compartir documentos electrónicos. Estos monederos permitirán a todos los europeos acceder a servicios online sin tener que utilizar métodos de identificación privados o compartir datos personales innecesariamente. Esta solución asegura que los ciudadanos tendrán pleno control sobre los datos que comparten. Además, la propuesta de Reglamento eIDAS 2 amplía la lista actual de servicios electrónicos de confianza a tres nuevos servicios de confianza cualificados, uno de los cuales es el “electronic ledgers” (DLT).
En este vídeo podrás escuchar la jornada completa del día 3 de febrero de 2021, organizada por la Sección de Robótica, Inteligencia Artificial y Realidad Virtual y Aumentada del Ilustre Colegio de Abogados de Madrid, en la cual se trató el tema “Inteligencia artificial y big data. Algoritmos y toma de decisiones”. Para ello se contó con la participación de tres reconocidos expertos en la materia: José Antonio Jiménez Caballero (responsable de gestión de proyectos de normalización en UNE Asociación Española de Normalización), Luis Ángel Prendes (Global Director Legal Affairs & Digital Transformation de Telefónica) y Ricardo Oliva León (socio director de Algoritmo Legal). No te pierdas la intervención de Ricardo.
En este artículo analizamos la propuesta de Reglamento elaborada por el Parlamento Europeo que establece un marco regulador en la Unión Europea de principios éticos y obligaciones legales para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas. Dicha propuesta fue publicada el día 8.10.2020.
En ella se establecen una serie de obligaciones aplicables a las tecnologías de inteligencia artificial consideradas de “alto riesgo” entre las que se encuentran la obligación de garantizar una inteligencia artificial antropocéntrica y antropogénica, la de seguridad, transparencia y rendición de cuentas, la de ausencia de sesgo y discriminación, la de responsabilidad social e igualdad de género, la de sostenibilidad ambiental y la de respeto a la intimidad y a la protección de datos.
La juez Chiara Zompi del Juzgado Laboral de Bolonia (Italia) ha dictaminado en su reciente resolución judicial de 31 de diciembre de 2020 que el algoritmo “Frank ” diseñado y utilizado por Deliveroo Italia en su plataforma online para clasificar o rankear a sus riders, es discriminatorio. A criterio de la juez, el algoritmo de Deliveroo penaliza de igual forma y sin distinción alguna tanto a los riders que se ausentan temporalmente de su plataforma por motivos fútiles como a los que lo hacen por enfermedad, minusvalía, cuidado de menores o para ejercer su derecho de huelga, estos últimos supuestos legítimos de abstención laboral. Conoce en este artículo los fundamentos de la sentencia y el impacto que podría tener en el futuro.
El 22 de diciembre de 2020 la Securities and Exchange Commission de los EE. UU. (la SEC), interpuso una demanda contra la compañía Ripple y sus dos ejecutivos, Bradley Garlinghouse y Christian Larsen. La SEC sostiene que el “token” XRP -criptoactivo creado por Ripple- es un valor mobiliario y acusa a Ripple y a los dos ejecutivos mencionados de recaudar capital para su compañía desde el año 2013, proveniente de inversores a través de una oferta de valores de activos digitales por más de US$ 1.3 mil millones, sin cumplir la normativa del mercado de valores norteamericana. Conoce en esta entrada los fundamentos de dicha demanda.
Los sistemas de inteligencia artificial (IA) plantean desafíos jurídicos a nuestro vigente sistema de responsabilidad civil. Ciertas características únicas de la IA, tales como su opacidad, conectividad, dependencia a datos externos, vulnerabilidad frente a violaciones de ciberseguridad, capacidad de autoaprendizaje y autonomía potencial, podrían hacer extremadamente costoso o imposible determinar quién controla el riesgo asociado a un sistema de IA o qué código, entrada o datos han provocado, en última instancia, su funcionamiento lesivo. Como consecuencia de ello, el perjudicado por un sistema de IA podría tener dificultades para obtener una indemnización adecuada. Analizamos aquí la reciente propuesta de Reglamento sobre responsabilidad civil de la IA aprobada por el Parlamento Europeo y remitida a la Comisión Europea para su aprobación final.
En este artículo analizamos el Informe sobre los derechos de propiedad intelectual para el desarrollo de las tecnologías relativas a la inteligencia artificial (IA) de fecha 2 de octubre de 2020, recientemente aprobado por el Parlamento Europeo y remitido a la Comisión Europea para la emisión de la correspondiente propuesta legislativa sobre la materia. Se analizan los desafíos jurídicos (asignación de personalidad jurídica a la inteligencia artificial, regulación legal de las patentes y de la ingeniería inversa, etc.) que presenta el uso de la IA. Se trata de un documento que todo innovador, científico, empresario, inversor y/o desarrollador de IA debería conocer.