Etiquetado: Inteligencia artificial

discurso odio IA

Detección del discurso de odio mediante IA: Un desafío tecnológico

La detección automática del discurso del odio mediante algoritmos de inteligencia artificial (IA) éticos y fiables puede convertirse en una tarea importante para ayudar a proteger los derechos fundamentales de las personas afectadas. Mediante algoritmos de IA es posible analizar grandes volúmenes de contenido en línea (medios informativos online y redes sociales) e identificar patrones y características asociados con el discurso de odio.

ChatGPT 0

Las agencias europeas de protección de datos frente a ChatGPT

La autoridad italiana de protección de datos personales bloqueó en el país italiano, el pasado 30 de marzo de 2023, el uso de ChatGPT, el chatbot conversacional propiedad de la empresa norteamericana OpenAI, por considerar que infringía diversos preceptos de la normativa europea sobre protección de datos. OpenAI ha rectificado y tomado medidas al respecto por lo que el 28 de abril de 2023, ChatGPT volvió a estar operativo en Italia. Por su parte la Agencia Española de Protección de Datos también ha reaccionado frente a ChatGPT.

Inteligencia artificial

Indemnización de daños causados por sistemas de inteligencia artificial

En comparación con los casos que no tienen relación alguna con la inteligencia artificial (IA), a las víctimas de daños causados por sistemas de IA, en la práctica, les puede resultar difícil o excesivamente costoso determinar cuál es la persona responsable del daño sufrido.
Dicha dificultad y el elevado coste obedecen a las características propias de la IA, incluidas su complejidad técnica, su autonomía, la inexplicabilidad de su funcionamiento interno y su opacidad. Esto último está relacionado con el llamado efecto de caja negra que se refiere a los casos que no resulta posible explicar por qué un modelo de IA ha generado un resultado o una decisión particular ni qué combinación de factores contribuyeron a ello.
Con el fin de superar estos obstáculos, el pasado 28.09.2022 la Comisión Europea publicó la Propuesta de Directiva del Parlamento y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (la Directiva sobre responsabilidad en materia de IA). En el presente artículo realizamos un análisis sobre esta importante propuesta normativa.

Fiabilito

Nace Fiabilito, el chatbot que diagnostica la fiabilidad de los algoritmos de IA en los bancos

Algoritmo Legal ha creado “Fiabilito”. El objetivo de este chatbot es el de permitir a las empresas del sector financiero (particularmente, a los bancos) realizar un diagnóstico preliminar acerca de si sus productos o servicios que incorporan algoritmos de inteligencia artificial garantizan el uso de una inteligencia artificial fiable (lícita, ética y robusta). Ha sido creado por los ingenieros especializados en inteligencia artificial Yaiza Argudín Pérez, Alberto Martín Montero, Alejandro Núñez Valle y Carlos Simón Gallego junto con los expertos abogados de nuestra firma Ricardo Oliva León (ideólogo y director del proyecto) y Elena Almazán Salazar. Te invitamos a interactuar con Fiabilito en www.fiabilito.com.

Derecho de consumo - IoT - inteligencia artificial

Formación sobre IoT e inteligencia artificial al Ministerio de Consumo

En el marco del curso “Servicios Digitales y Protección del Consumidor”, los abogados de nuestra firma Ricardo Oliva y Elena Almazán impartieron una formación jurídica especializada dirigida a los funcionarios de la Comunidad de Madrid y del Ministerio de Consumo de España encargados de velar por el cumplimiento de la normativa de protección del consumidor.
Dicha formación trató sobre la nuevas tendencias y modelos comerciales digitales, con especial énfasis en el Internet de las Cosas (IoT), la Inteligencia Artificial (IA), robótica y las tecnologías relacionadas.
La organización trasladó a nuestra firma que la valoración de los funcionarios formados ha sido muy positiva y la satisfacción muy alta.

Inteligencia artificial y transparencia algoritmica

Transparencia algorítmica y condiciones de trabajo

El Real Decreto-ley 9/2021, de 11 de mayo ha modificado el Texto Refundido del Estatuto de los Trabajadores (ET) de España. Una de tales modificaciones faculta al órgano de representación de los trabajadores en las empresas de más de 50 trabajadores (el llamado “Comité de Empresa”) a ser informado de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles (el nuevo artículo 64.4.d) del ET). Es la primera vez que una norma española impone al empresario una obligación de transparencia algorítmica y un deber de explicabilidad sobre el funcionamiento de los algoritmos de inteligencia artificial que utiliza para adoptar decisiones que afecten las condiciones laborales y el acceso y mantenimiento del empleo.

Algoritmos de inteligencia artificial

Algoritmos, inteligencia artificial y big data (vídeo)

En este vídeo podrás escuchar la jornada completa del día 3 de febrero de 2021, organizada por la Sección de Robótica, Inteligencia Artificial y Realidad Virtual y Aumentada del Ilustre Colegio de Abogados de Madrid, en la cual se trató el tema “Inteligencia artificial y big data. Algoritmos y toma de decisiones”. Para ello se contó con la participación de tres reconocidos expertos en la materia: José Antonio Jiménez Caballero (responsable de gestión de proyectos de normalización en UNE Asociación Española de Normalización), Luis Ángel Prendes (Global Director Legal Affairs & Digital Transformation de Telefónica) y Ricardo Oliva León (socio director de Algoritmo Legal). No te pierdas la intervención de Ricardo.

Ética de la inteligencia artificial 0

Inteligencia artificial y marco ético europeo

En este artículo analizamos la propuesta de Reglamento elaborada por el Parlamento Europeo que establece un marco regulador en la Unión Europea de principios éticos y obligaciones legales para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas. Dicha propuesta fue publicada el día 8.10.2020.
En ella se establecen una serie de obligaciones aplicables a las tecnologías de inteligencia artificial consideradas de “alto riesgo” entre las que se encuentran la obligación de garantizar una inteligencia artificial antropocéntrica y antropogénica, la de seguridad, transparencia y rendición de cuentas, la de ausencia de sesgo y discriminación, la de responsabilidad social e igualdad de género, la de sostenibilidad ambiental y la de respeto a la intimidad y a la protección de datos.

Algoritmo de Deliveroo 3

¿Es discriminatorio el algoritmo de Deliveroo que “rankea” a sus riders?

La juez Chiara Zompi del Juzgado Laboral de Bolonia (Italia) ha dictaminado en su reciente resolución judicial de 31 de diciembre de 2020 que el algoritmo “Frank ” diseñado y utilizado por Deliveroo Italia en su plataforma online para clasificar o rankear a sus riders, es discriminatorio. A criterio de la juez, el algoritmo de Deliveroo penaliza de igual forma y sin distinción alguna tanto a los riders que se ausentan temporalmente de su plataforma por motivos fútiles como a los que lo hacen por enfermedad, minusvalía, cuidado de menores o para ejercer su derecho de huelga, estos últimos supuestos legítimos de abstención laboral. Conoce en este artículo los fundamentos de la sentencia y el impacto que podría tener en el futuro.

Inteligencia artificial y Ricardo Oliva

Ricardo Oliva imparte conferencia internacional sobre arbitraje e inteligencia artificial

En este vídeo podrás visualizar la ponencia completa sobre justicia, arbitraje e inteligencia artificial impartida por Ricardo Oliva León, socio director de Algoritmo Legal, en las jornadas internacionales organizadas por el Centro de Arbitraje de la Cámara de Comercio, Industria y Servicios de Caracas y la Academia de Ciencias Políticas y Sociales de Venezuela, el pasado 18 de noviembre de 2020.
Todavía se necesita mucho debate de manera crítica para evaluar qué papel deberían desempeñar las herramientas de inteligencia artificial en nuestros sistemas de justicia, incluido el arbitraje. Debe adoptarse el cambio donde mejore o al menos no empeore la calidad de nuestros sistemas judiciales y arbitrales. No hay que olvidar que aumentar el acceso a la justicia mediante la reducción del costo de los procedimientos judiciales y arbitrales a través de sistemas automatizados puede parecer un resultado deseable, pero tiene poco valor aumentar el acceso a la justicia si la calidad de la justicia se ve socavada al hacerlo.

Inteligencia artificial y responsabilidad civil 2

Inteligencia artificial y responsabilidad civil por daños

Los sistemas de inteligencia artificial (IA) plantean desafíos jurídicos a nuestro vigente sistema de responsabilidad civil. Ciertas características únicas de la IA, tales como su opacidad, conectividad, dependencia a datos externos, vulnerabilidad frente a violaciones de ciberseguridad, capacidad de autoaprendizaje y autonomía potencial, podrían hacer extremadamente costoso o imposible determinar quién controla el riesgo asociado a un sistema de IA o qué código, entrada o datos han provocado, en última instancia, su funcionamiento lesivo. Como consecuencia de ello, el perjudicado por un sistema de IA podría tener dificultades para obtener una indemnización adecuada. Analizamos aquí la reciente propuesta de Reglamento sobre responsabilidad civil de la IA aprobada por el Parlamento Europeo y remitida a la Comisión Europea para su aprobación final.

IA y propiedad intelectual e industrial 2

Inteligencia artificial y propiedad intelectual e industrial

En este artículo analizamos el Informe sobre los derechos de propiedad intelectual para el desarrollo de las tecnologías relativas a la inteligencia artificial (IA) de fecha 2 de octubre de 2020, recientemente aprobado por el Parlamento Europeo y remitido a la Comisión Europea para la emisión de la correspondiente propuesta legislativa sobre la materia. Se analizan los desafíos jurídicos (asignación de personalidad jurídica a la inteligencia artificial, regulación legal de las patentes y de la ingeniería inversa, etc.) que presenta el uso de la IA. Se trata de un documento que todo innovador, científico, empresario, inversor y/o desarrollador de IA debería conocer.

error: Este contenido está protegido.