Artículos jurídicos sobre algoritmos de inteligencia artificial (IA), IA fiable, robótica, deepfakes, machine learning, deep learning, drones, identificación biométrica, etc.

discurso odio IA

Detección del discurso de odio mediante IA: Un desafío tecnológico

La detección automática del discurso del odio mediante algoritmos de inteligencia artificial (IA) éticos y fiables puede convertirse en una tarea importante para ayudar a proteger los derechos fundamentales de las personas afectadas. Mediante algoritmos de IA es posible analizar grandes volúmenes de contenido en línea (medios informativos online y redes sociales) e identificar patrones y características asociados con el discurso de odio.

IA como producto defectuoso

¿Cuándo la inteligencia artificial puede ser considerada un producto defectuoso?

La propuesta de Directiva sobre responsabilidad por los daños causados por productos defectuosos (publicada el 28.09.2022) establece un régimen de responsabilidad extracontractual ya que se refiere al carácter defectuoso de un producto y solo prevé una compensación por las pérdidas derivadas o resultantes de la muerte, las lesiones corporales, los daños materiales (destrucción de cualquier propiedad) lo que incluye la pérdida o corrupción de datos. En otras palabras, lo que se indemniza aquí son los daños y perjuicios causados por la falta de seguridad.
Los sistemas de inteligencia artificial (IA) y los bienes basados en IA deben ser considerados productos y, por ello, entran en el ámbito de aplicación de esta propuesta de Directiva, lo que significa que cuando su ejecución o uso causen daños, pueda obtenerse una indemnización sin que la persona perjudicada tenga que demostrar la culpa del fabricante, al igual que cualquier otro producto defectuoso. El desarrollador o productor de programas informáticos (incluidos los proveedores de sistemas de IA) serán tratados como fabricantes al amparo de esta nueva Directiva.

ChatGPT 0

Las agencias europeas de protección de datos frente a ChatGPT

La autoridad italiana de protección de datos personales bloqueó en el país italiano, el pasado 30 de marzo de 2023, el uso de ChatGPT, el chatbot conversacional propiedad de la empresa norteamericana OpenAI, por considerar que infringía diversos preceptos de la normativa europea sobre protección de datos. OpenAI ha rectificado y tomado medidas al respecto por lo que el 28 de abril de 2023, ChatGPT volvió a estar operativo en Italia. Por su parte la Agencia Española de Protección de Datos también ha reaccionado frente a ChatGPT.

Algoritmos y contratación de talento

Selección de talento en la era de los algoritmos de IA

La evidencia empírica demuestra que los departamentos de recursos humanos de las grandes y medianas empresas están utilizando cada vez más software de aprendizaje automático (algoritmos de inteligencia artificial) para medir el rendimiento laboral de las personas e, incluso, para tomar la decisión de despedirlas o de retenerlas. Estos programas de ordenador, ciertamente pueden proveer información útil (especialmente, métricas) a headhunters y directores de recursos humanos. Sin embargo, también puede generar riesgos para las personas que son objeto de ellos, algunos de los cuales tienen que ver con la salvaguarda de sus derechos fundamentales.

Inteligencia artificial

Indemnización de daños causados por sistemas de inteligencia artificial

En comparación con los casos que no tienen relación alguna con la inteligencia artificial (IA), a las víctimas de daños causados por sistemas de IA, en la práctica, les puede resultar difícil o excesivamente costoso determinar cuál es la persona responsable del daño sufrido.
Dicha dificultad y el elevado coste obedecen a las características propias de la IA, incluidas su complejidad técnica, su autonomía, la inexplicabilidad de su funcionamiento interno y su opacidad. Esto último está relacionado con el llamado efecto de caja negra que se refiere a los casos que no resulta posible explicar por qué un modelo de IA ha generado un resultado o una decisión particular ni qué combinación de factores contribuyeron a ello.
Con el fin de superar estos obstáculos, el pasado 28.09.2022 la Comisión Europea publicó la Propuesta de Directiva del Parlamento y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (la Directiva sobre responsabilidad en materia de IA). En el presente artículo realizamos un análisis sobre esta importante propuesta normativa.

Fiabilito

Nace Fiabilito, el chatbot que diagnostica la fiabilidad de los algoritmos de IA en los bancos

Algoritmo Legal ha creado “Fiabilito”. El objetivo de este chatbot es el de permitir a las empresas del sector financiero (particularmente, a los bancos) realizar un diagnóstico preliminar acerca de si sus productos o servicios que incorporan algoritmos de inteligencia artificial garantizan el uso de una inteligencia artificial fiable (lícita, ética y robusta). Ha sido creado por los ingenieros especializados en inteligencia artificial Yaiza Argudín Pérez, Alberto Martín Montero, Alejandro Núñez Valle y Carlos Simón Gallego junto con los expertos abogados de nuestra firma Ricardo Oliva León (ideólogo y director del proyecto) y Elena Almazán Salazar. Te invitamos a interactuar con Fiabilito en www.fiabilito.com.

Derecho de consumo - IoT - inteligencia artificial

Formación sobre IoT e inteligencia artificial al Ministerio de Consumo

En el marco del curso “Servicios Digitales y Protección del Consumidor”, los abogados de nuestra firma Ricardo Oliva y Elena Almazán impartieron una formación jurídica especializada dirigida a los funcionarios de la Comunidad de Madrid y del Ministerio de Consumo de España encargados de velar por el cumplimiento de la normativa de protección del consumidor.
Dicha formación trató sobre la nuevas tendencias y modelos comerciales digitales, con especial énfasis en el Internet de las Cosas (IoT), la Inteligencia Artificial (IA), robótica y las tecnologías relacionadas.
La organización trasladó a nuestra firma que la valoración de los funcionarios formados ha sido muy positiva y la satisfacción muy alta.

Inteligencia artificial y transparencia algoritmica

Transparencia algorítmica y condiciones de trabajo

El Real Decreto-ley 9/2021, de 11 de mayo ha modificado el Texto Refundido del Estatuto de los Trabajadores (ET) de España. Una de tales modificaciones faculta al órgano de representación de los trabajadores en las empresas de más de 50 trabajadores (el llamado “Comité de Empresa”) a ser informado de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles (el nuevo artículo 64.4.d) del ET). Es la primera vez que una norma española impone al empresario una obligación de transparencia algorítmica y un deber de explicabilidad sobre el funcionamiento de los algoritmos de inteligencia artificial que utiliza para adoptar decisiones que afecten las condiciones laborales y el acceso y mantenimiento del empleo.

Algoritmos de inteligencia artificial

Algoritmos, inteligencia artificial y big data (vídeo)

En este vídeo podrás escuchar la jornada completa del día 3 de febrero de 2021, organizada por la Sección de Robótica, Inteligencia Artificial y Realidad Virtual y Aumentada del Ilustre Colegio de Abogados de Madrid, en la cual se trató el tema “Inteligencia artificial y big data. Algoritmos y toma de decisiones”. Para ello se contó con la participación de tres reconocidos expertos en la materia: José Antonio Jiménez Caballero (responsable de gestión de proyectos de normalización en UNE Asociación Española de Normalización), Luis Ángel Prendes (Global Director Legal Affairs & Digital Transformation de Telefónica) y Ricardo Oliva León (socio director de Algoritmo Legal). No te pierdas la intervención de Ricardo.

Ética de la inteligencia artificial 0

Inteligencia artificial y marco ético europeo

En este artículo analizamos la propuesta de Reglamento elaborada por el Parlamento Europeo que establece un marco regulador en la Unión Europea de principios éticos y obligaciones legales para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas. Dicha propuesta fue publicada el día 8.10.2020.
En ella se establecen una serie de obligaciones aplicables a las tecnologías de inteligencia artificial consideradas de “alto riesgo” entre las que se encuentran la obligación de garantizar una inteligencia artificial antropocéntrica y antropogénica, la de seguridad, transparencia y rendición de cuentas, la de ausencia de sesgo y discriminación, la de responsabilidad social e igualdad de género, la de sostenibilidad ambiental y la de respeto a la intimidad y a la protección de datos.

Algoritmo de Deliveroo 3

¿Es discriminatorio el algoritmo de Deliveroo que “rankea” a sus riders?

La juez Chiara Zompi del Juzgado Laboral de Bolonia (Italia) ha dictaminado en su reciente resolución judicial de 31 de diciembre de 2020 que el algoritmo “Frank ” diseñado y utilizado por Deliveroo Italia en su plataforma online para clasificar o rankear a sus riders, es discriminatorio. A criterio de la juez, el algoritmo de Deliveroo penaliza de igual forma y sin distinción alguna tanto a los riders que se ausentan temporalmente de su plataforma por motivos fútiles como a los que lo hacen por enfermedad, minusvalía, cuidado de menores o para ejercer su derecho de huelga, estos últimos supuestos legítimos de abstención laboral. Conoce en este artículo los fundamentos de la sentencia y el impacto que podría tener en el futuro.

Inteligencia artificial y Ricardo Oliva

Ricardo Oliva imparte conferencia internacional sobre arbitraje e inteligencia artificial

En este vídeo podrás visualizar la ponencia completa sobre justicia, arbitraje e inteligencia artificial impartida por Ricardo Oliva León, socio director de Algoritmo Legal, en las jornadas internacionales organizadas por el Centro de Arbitraje de la Cámara de Comercio, Industria y Servicios de Caracas y la Academia de Ciencias Políticas y Sociales de Venezuela, el pasado 18 de noviembre de 2020.
Todavía se necesita mucho debate de manera crítica para evaluar qué papel deberían desempeñar las herramientas de inteligencia artificial en nuestros sistemas de justicia, incluido el arbitraje. Debe adoptarse el cambio donde mejore o al menos no empeore la calidad de nuestros sistemas judiciales y arbitrales. No hay que olvidar que aumentar el acceso a la justicia mediante la reducción del costo de los procedimientos judiciales y arbitrales a través de sistemas automatizados puede parecer un resultado deseable, pero tiene poco valor aumentar el acceso a la justicia si la calidad de la justicia se ve socavada al hacerlo.

error: Este contenido está protegido.