Artículos jurídicos sobre algoritmos de inteligencia artificial (IA), IA fiable, robótica, deepfakes, machine learning, deep learning, drones, identificación biométrica, etc.

Reglamento de Inteligencia Artificial

Evento sobre el impacto del Reglamento de Inteligencia Artificial en las empresas

El 19 de septiembre de 2024 se llevó a cabo el evento más importante de la Asociación Confassociazioni España en lo que va del año 2024: “Implicaciones e Impacto del Reglamento Europeo de Inteligencia Artificial en las Empresas”.
Durante la inauguración del evento estuvieron presentes distinguidas autoridades italianas como Giulio Centemero diputado del Gobierno Italiano, Angelo Deiana Presidente de Confassociazioni y Stefano G. Ticozzelli Presidente Onorario Confassociazioni España.
Los ponentes de la primera mesa de debate fueron Ibán García del Blanco, Ricardo Oliva León y Eleonora Carrillo quienes compartieron sus conocimientos y perspectivas sobre el impacto de la IA en el marco regulatorio y jurídico europeo. Sus análisis y aportaciones fueron de gran valor para todos los asistentes. Esta mesa fue moderada por Eva Alvarez Del Manzano.
En la segunda mesa de debate, Antonio Muñoz Marcos, Josetxo Soria Checa, Carlos Simón Gallego, y Karina Gibert ofrecieron una visión completa y multidisciplinar sobre la implementación de la inteligencia artificial en el sector empresarial. Sus valiosas contribuciones ayudaron a enriquecer el análisis sobre las oportunidades y desafíos que enfrentamos. Una mesa magníficamente moderada por Alejandro Sánchez del Campo Redonet.

discurso odio IA

Detección del discurso de odio mediante IA: Un desafío tecnológico

La detección automática del discurso del odio mediante algoritmos de inteligencia artificial (IA) éticos y fiables puede convertirse en una tarea importante para ayudar a proteger los derechos fundamentales de las personas afectadas. Mediante algoritmos de IA es posible analizar grandes volúmenes de contenido en línea (medios informativos online y redes sociales) e identificar patrones y características asociados con el discurso de odio.

IA como producto defectuoso

¿Cuándo la inteligencia artificial puede ser considerada un producto defectuoso?

La propuesta de Directiva sobre responsabilidad por los daños causados por productos defectuosos (publicada el 28.09.2022) establece un régimen de responsabilidad extracontractual ya que se refiere al carácter defectuoso de un producto y solo prevé una compensación por las pérdidas derivadas o resultantes de la muerte, las lesiones corporales, los daños materiales (destrucción de cualquier propiedad) lo que incluye la pérdida o corrupción de datos. En otras palabras, lo que se indemniza aquí son los daños y perjuicios causados por la falta de seguridad.
Los sistemas de inteligencia artificial (IA) y los bienes basados en IA deben ser considerados productos y, por ello, entran en el ámbito de aplicación de esta propuesta de Directiva, lo que significa que cuando su ejecución o uso causen daños, pueda obtenerse una indemnización sin que la persona perjudicada tenga que demostrar la culpa del fabricante, al igual que cualquier otro producto defectuoso. El desarrollador o productor de programas informáticos (incluidos los proveedores de sistemas de IA) serán tratados como fabricantes al amparo de esta nueva Directiva.

ChatGPT 0

Las agencias europeas de protección de datos frente a ChatGPT

La autoridad italiana de protección de datos personales bloqueó en el país italiano, el pasado 30 de marzo de 2023, el uso de ChatGPT, el chatbot conversacional propiedad de la empresa norteamericana OpenAI, por considerar que infringía diversos preceptos de la normativa europea sobre protección de datos. OpenAI ha rectificado y tomado medidas al respecto por lo que el 28 de abril de 2023, ChatGPT volvió a estar operativo en Italia. Por su parte la Agencia Española de Protección de Datos también ha reaccionado frente a ChatGPT.

Algoritmos y contratación de talento

Selección de talento en la era de los algoritmos de IA

La evidencia empírica demuestra que los departamentos de recursos humanos de las grandes y medianas empresas están utilizando cada vez más software de aprendizaje automático (algoritmos de inteligencia artificial) para medir el rendimiento laboral de las personas e, incluso, para tomar la decisión de despedirlas o de retenerlas. Estos programas de ordenador, ciertamente pueden proveer información útil (especialmente, métricas) a headhunters y directores de recursos humanos. Sin embargo, también puede generar riesgos para las personas que son objeto de ellos, algunos de los cuales tienen que ver con la salvaguarda de sus derechos fundamentales.

Inteligencia artificial

Indemnización de daños causados por sistemas de inteligencia artificial

En comparación con los casos que no tienen relación alguna con la inteligencia artificial (IA), a las víctimas de daños causados por sistemas de IA, en la práctica, les puede resultar difícil o excesivamente costoso determinar cuál es la persona responsable del daño sufrido.
Dicha dificultad y el elevado coste obedecen a las características propias de la IA, incluidas su complejidad técnica, su autonomía, la inexplicabilidad de su funcionamiento interno y su opacidad. Esto último está relacionado con el llamado efecto de caja negra que se refiere a los casos que no resulta posible explicar por qué un modelo de IA ha generado un resultado o una decisión particular ni qué combinación de factores contribuyeron a ello.
Con el fin de superar estos obstáculos, el pasado 28.09.2022 la Comisión Europea publicó la Propuesta de Directiva del Parlamento y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (la Directiva sobre responsabilidad en materia de IA). En el presente artículo realizamos un análisis sobre esta importante propuesta normativa.

Fiabilito

Nace Fiabilito, el chatbot que diagnostica la fiabilidad de los algoritmos de IA en los bancos

Algoritmo Legal ha creado “Fiabilito”. El objetivo de este chatbot es el de permitir a las empresas del sector financiero (particularmente, a los bancos) realizar un diagnóstico preliminar acerca de si sus productos o servicios que incorporan algoritmos de inteligencia artificial garantizan el uso de una inteligencia artificial fiable (lícita, ética y robusta). Ha sido creado por los ingenieros especializados en inteligencia artificial Yaiza Argudín Pérez, Alberto Martín Montero, Alejandro Núñez Valle y Carlos Simón Gallego junto con los expertos abogados de nuestra firma Ricardo Oliva León (ideólogo y director del proyecto) y Elena Almazán Salazar. Te invitamos a interactuar con Fiabilito en www.fiabilito.com.

Derecho de consumo - IoT - inteligencia artificial

Formación sobre IoT e inteligencia artificial al Ministerio de Consumo

En el marco del curso “Servicios Digitales y Protección del Consumidor”, los abogados de nuestra firma Ricardo Oliva y Elena Almazán impartieron una formación jurídica especializada dirigida a los funcionarios de la Comunidad de Madrid y del Ministerio de Consumo de España encargados de velar por el cumplimiento de la normativa de protección del consumidor.
Dicha formación trató sobre la nuevas tendencias y modelos comerciales digitales, con especial énfasis en el Internet de las Cosas (IoT), la Inteligencia Artificial (IA), robótica y las tecnologías relacionadas.
La organización trasladó a nuestra firma que la valoración de los funcionarios formados ha sido muy positiva y la satisfacción muy alta.

Inteligencia artificial y transparencia algoritmica

Transparencia algorítmica y condiciones de trabajo

El Real Decreto-ley 9/2021, de 11 de mayo ha modificado el Texto Refundido del Estatuto de los Trabajadores (ET) de España. Una de tales modificaciones faculta al órgano de representación de los trabajadores en las empresas de más de 50 trabajadores (el llamado “Comité de Empresa”) a ser informado de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles (el nuevo artículo 64.4.d) del ET). Es la primera vez que una norma española impone al empresario una obligación de transparencia algorítmica y un deber de explicabilidad sobre el funcionamiento de los algoritmos de inteligencia artificial que utiliza para adoptar decisiones que afecten las condiciones laborales y el acceso y mantenimiento del empleo.

Algoritmos de inteligencia artificial

Algoritmos, inteligencia artificial y big data (vídeo)

En este vídeo podrás escuchar la jornada completa del día 3 de febrero de 2021, organizada por la Sección de Robótica, Inteligencia Artificial y Realidad Virtual y Aumentada del Ilustre Colegio de Abogados de Madrid, en la cual se trató el tema “Inteligencia artificial y big data. Algoritmos y toma de decisiones”. Para ello se contó con la participación de tres reconocidos expertos en la materia: José Antonio Jiménez Caballero (responsable de gestión de proyectos de normalización en UNE Asociación Española de Normalización), Luis Ángel Prendes (Global Director Legal Affairs & Digital Transformation de Telefónica) y Ricardo Oliva León (socio director de Algoritmo Legal). No te pierdas la intervención de Ricardo.

Ética de la inteligencia artificial 0

Inteligencia artificial y marco ético europeo

En este artículo analizamos la propuesta de Reglamento elaborada por el Parlamento Europeo que establece un marco regulador en la Unión Europea de principios éticos y obligaciones legales para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas. Dicha propuesta fue publicada el día 8.10.2020.
En ella se establecen una serie de obligaciones aplicables a las tecnologías de inteligencia artificial consideradas de “alto riesgo” entre las que se encuentran la obligación de garantizar una inteligencia artificial antropocéntrica y antropogénica, la de seguridad, transparencia y rendición de cuentas, la de ausencia de sesgo y discriminación, la de responsabilidad social e igualdad de género, la de sostenibilidad ambiental y la de respeto a la intimidad y a la protección de datos.

Algoritmo de Deliveroo 3

¿Es discriminatorio el algoritmo de Deliveroo que “rankea” a sus riders?

La juez Chiara Zompi del Juzgado Laboral de Bolonia (Italia) ha dictaminado en su reciente resolución judicial de 31 de diciembre de 2020 que el algoritmo “Frank ” diseñado y utilizado por Deliveroo Italia en su plataforma online para clasificar o rankear a sus riders, es discriminatorio. A criterio de la juez, el algoritmo de Deliveroo penaliza de igual forma y sin distinción alguna tanto a los riders que se ausentan temporalmente de su plataforma por motivos fútiles como a los que lo hacen por enfermedad, minusvalía, cuidado de menores o para ejercer su derecho de huelga, estos últimos supuestos legítimos de abstención laboral. Conoce en este artículo los fundamentos de la sentencia y el impacto que podría tener en el futuro.

error: Este contenido está protegido.