Contratación online

¿Es discriminatorio el algoritmo de Deliveroo que «rankea» a sus riders?

Algoritmo de Deliveroo Tiempo estimado de lectura: 9 minutos

Sí, en Italia al menos. Así lo ha dictaminado el Tribunale Ordinario di Bologna (Italia) en una reciente sentencia de 24 folios fechada el 31 de diciembre de 2020 donde cuestiona la “licitud” del “algoritmo” de clasificación (o de ranking) utilizado por la empresa Deliveroo en su plataforma digital para decidir cómo efectúa la asignación y distribución de encargos de trabajo a sus repartidores (los “riders”).

Aquí el texto íntegro oficial de la resolución judicial italiana.

1. ¿Qué es un «algoritmo» informático?

La RAE define el término algoritmo como el «conjunto ordenado y finito de operaciones que permite hallar la solución de un problema». Si se me permite el símil, un algoritmo sería una especie de «receta de cocina» cuyo resultado puede ser un plato agradable o desagradable al paladar y, en el peor de los casos, nocivo para la salud.

Un programa informático puede entenderse como el resultado de reunir algoritmos y estructura de datos en una secuencia de instrucciones que, al ser ejecutadas (obedecidas), por un intérprete (el procesador), permiten resolver automáticamente un conjunto de problemas de características comunes.

Un ejemplo real de algoritmo informático es el algoritmo de búsqueda de Google. Cuando accedemos al buscador de Google y realizamos una búsqueda, lo que activamos es un “algoritmo” que ejecuta Google y que nos devuelve una serie de resultados de búsqueda. Este algoritmo que utiliza Google es muy relevante para el posicionamiento web orgánico o SEO y actualmente es fuente de controversia porque su funcionamiento exacto se desconoce y son muchos los que intentan descifrarlo constantemente.

El algoritmo «Frank «utilizado por Deliveroo (Deliveroo Italia s.r.l.) en su plataforma online para clasificar o “rankear” a sus riders ha sabido amargo y nocivo para la Juez del Juzgado Laboral de Bolonia (Italia), Chiara Zompi, quien en su reciente resolución judicial del día 31 de diciembre de 2020, lo acaba de considerar como un “algoritmo discriminatorio”.

2. ¿Qué dice la resolución judicial italiana?

Algoritmo discriminatorio y Deliveroo

Primer folio de la resolución judicial italiana que condenó a Deliveroo.

Para la juez ha quedado demostrada la discriminación por parte de Deliveroo en perjuicio de sus “riders” en relación con las condiciones de acceso a la reserva de sesiones de trabajo establecidas en su plataforma digital a través del algoritmo “Frank”, incorporado en su sistema de reserva SSB.

Según lo acreditado en juicio, los riders gozan de dos vías para recibir encargos de viajes por parte de Deliveroo: pueden reservar sesiones con antelación a través del sistema de reserva SSB (“Self-Service Booking”) o pueden iniciar sesión en tiempo real. El sistema de reserva SSB proporciona a los riders un calendario de disponibilidad o “slots” («puestos» o «vacantes») de la semana entrante para poder recibir encargos de viaje de acuerdo con un ranking (una clasificación) establecido. Los parámetros de dicha clasificación son la llamada “tasa de fiabilidad” (número de veces en el que el rider no atendió una sesión que previamente reservó) y la “tasa de participación en los picos” (número de veces en que el rider estuvo disponible para los horarios más relevantes, es decir, de las 20h a las 22h de viernes a domingo).

A criterio de la juez, Deliveroo, utiliza un algoritmo que penaliza de igual forma y sin distinción alguna tanto a los riders que se ausentan temporalmente de su plataforma (y no cumplen con los pedidos dentro de la franja horaria reservada) por motivos fútiles como a los que lo hacen por enfermedad, minusvalía, cuidado de menores o para ejercer su derecho de huelga, estos últimos supuestos legítimos y justificados de abstención laboral. Y llega a esta conclusión indicando que es indiferente que a los riders se les considere trabajadores por cuenta ajena o trabajadores autónomos, dado que en cualquiera de los casos estarán protegidos frente a la discriminación en el acceso al trabajo.

La resolución judicial literalmente señala lo siguiente:

“Il sistema di profilazione dei rider adottato dalla piattaforma Deliveroo, basato sui due parametri della affidabilità e della partecipazione, nel trattare nello stesso modo chi non partecipa alla sessione prenotata per futili motivi e chi non partecipa perché sta scioperando (o perché è malato, è portatore di un handicap, o assiste un soggetto portatore di handicap o un minore malato, ecc.) in concreto discrimina quest’ultimo, eventualmente emarginandolo dal gruppo prioritario e dunque riducendo significativamente le sue future occasioni di accesso al lavoro.” (página 19) (resultado personal).

La resolución se refiere a la llamada “cancelación tardía” que puede penalizar las “estadísticas” del rider en términos de su participación en la plataforma de Deliveroo. Por tanto, el rider que se adhiera a una huelga (lo que incluye a la llamada “huelga súbita”) y no cancele una sesión que hubiera reservado, al menos 24 horas antes de su inicio, podría sufrir un trato discriminatorio ya que corre el riesgo de que sus estadísticas dentro de la plataforma empeoren y pierda el puesto que ocupaba en el grupo prioritario de riders, con los perjuicios consiguientes que dicha situación conlleva.

El rider verá penalizada sus estadísticas, independientemente de la legítima justificación de su conducta y esto por la sencilla razón de que el algoritmo de la plataforma de Deliveroo no quiere conocer los verdaderos motivos por los cuales el rider anula su reserva o no participa en una sesión previamente reservada y no cancelada.  La resolución señala al respecto que:

in tutti questi casi il rider vede penalizzate le sue statistiche indipendentemente dalla giustificazione della sua condotta e ciò per la semplice motivazione, espressamente riconosciuta da Deliveroo, che la piattaforma non conosce e non vuole conoscere i motivi per cui il rider cancella la sua prenotazione o non partecipa ad una sessione prenotata e non cancellate” (páginas 18-19 de la sentencia) (resaltado personal).

La resolución judicial resalta que los riders sindicalizados son reacios a participar en las huelgas convocadas por sus organizaciones sindicales por miedo a que su participación en ellas pueda afectar sus futuras oportunidades laborales en Deliveroo, concretamente, la pérdida de “salario” del día no trabajado, además de una fuerte penalización en el trabajo futuro que se le encomiende.

El Juzgado considera que el modelo de evaluación y clasificación de los riders (el “ranking reputacional” de los riders) adoptado por la plataforma de entrega rápida de comida es el resultado de una “elección consciente” de la empresa para favorecer o premiar la disponibilidad plena de los riders, sin tener en cuenta nunca los motivos reales que pudieron llevar a un rider a estar desconectado de la plataforma. Para la Juez la empresa pudo perfectamente haber introducido una medida “correctiva” de carácter “técnico” en su programa informático cuestionado, pero no lo hizo.

Dado que el sistema de reservas SSB de Deliveroo se encuentra “discontinuado” desde el día 2.11.2020, la resolución judicial no ordena el cese de la “conducta legítima” sino únicamente la eliminación de sus efectos:

Passando alle pronunce consequenziali a quella di accertamento, occorre anzitutto rilevare che, trattandosi di condotta discriminatoria già conclusa, atteso che Deliveroo ha allegato – e sul punto non vi è contestazione – che il sistema delle prenotazioni SSB è ormai dismesso su tutto il territorio nazionale a far data dal 2.11.2020, non può essere ordinata la cessazione del comportamento illegittimo, bensì, soltanto, la rimozione dei relativi effetti” (página 21) (resaltado personal).

Por esa razón, la juez condena a Deliveroo a eliminar de cara al futuro los efectos de la conducta discriminatoria mediante la publicación de la resolución judicial en el sitio web de la empresa y en el área de FAQs o “preguntas frecuentes” de su plataforma:

“condanna la società convenuta a rimuovere gli effetti della condotta discriminatoria mediante la pubblicazione del presente provvedimento sul proprio sito internet e nell’area “domande frequenti” della propria piattaforma” (página 23).

Además, el Juzgado condenó a Deliveroo a tener que pagar la suma de 50.000 euros en favor de los tres sindicatos de rama de actividad de la Confederazione Generale Italiana del Lavoro que iniciaron el proceso judicial (Filcams CGIL Bologna, Nidil CGIL Bologna y Filt CGIL Bologna) contra la citada compañía, en concepto de indemnización por daños y perjuicios, más el interés legal correspondiente.

3. ¿Qué ha dicho Deliveroo sobre la resolución judicial y su algoritmo?

Deliveroo ha manifestado que ya no utiliza el sistema de reserva SSB e indicado que la corrección de su “antiguo” sistema se confirma por el hecho de que durante el juicio no apareció ni un solo caso concreto de discriminación real contra algún rider.

Además, señala que evaluará la posibilidad de recurrir la decisión de la juez Zompi dado que desde noviembre pasado el sistema de reserva ha sido reemplazado por otro “más moderno” que no requiere el uso de “estadísticas” para generar la clasificación o ranking de riders, por lo que esta resolución judicial carece de impacto en su modelo de negocio actual.

4. Valoración preliminar (valoración del autor)

Deliveroo en ningún momento ha revelado cómo funciona el algoritmo “Frank”, lo que constituye un buen ejemplo de “caja negra” para los riders y usuarios de su plataforma. Ha quedado demostrado que dicho algoritmo es “ciego” y, por tanto, indiferente a las necesidades y motivaciones de los riders cuando se ausentan temporalmente de la plataforma, lo que en el caso concreto tienen repercusión en el ejercicio de sus derechos fundamentales (igualdad y no discriminación, huelga, etc.).

Quién ha diseñado el algoritmo y/o lo utiliza en su plataforma, normalmente va oponer, para negarse a revelarlo, su condición de secreto empresarial y, por tanto, alegar que se encuentra amparado por la protección ofrecida en la UE por la Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo, de 8 de junio de 2016 relativa a la protección de los conocimientos técnicos y la información empresarial no divulgados (secretos comerciales) contra su obtención, utilización y revelación ilícitas si el algoritmo se considera información confidencial con carácter de secreto de empresa. En este caso concreto, la empresa Deliveroo no ha hecho referencia a dicha consideración.  El tema es sumamente delicado y merece un análisis riguroso que excede los fines de este artículo.

Independientemente de las consecuencias para la protección de los derechos laborales y las libertades sindicales en la nueva economía digital -conste que este post no constituye una defensa a la «laboralidad forzada» de los riders puesto que su objeto no es ese-, la resolución italiana marca un interesante precedente en Europa que puede promover el inicio de acciones judiciales sobre la necesidad de la auditabilidad y explicabilidad de los algoritmos informáticos de las plataformas online lo que a la postre significaría reclamar una mayor transparencia algorítmica. Incluso, podria generar respuestas legislativas concretas por parte de los Estados miembros de la UE.

Los consumidores y los usuarios (ya sean estos últimos consumidores o usuarios profesionales) de las plataformas que utilicen algoritmos informáticos y de inteligencia artificial deben estar informados de modo comprensible, oportuno, exacto y accesible de la existencia, el razonamiento, del posible resultado y de las repercusiones en su esfera personal de los sistemas algorítmicos empleados por tales plataformas, aplicaciones de inteligencia artificial y tecnologías conexas.

Del mismo modo, cualquier persona afectada por estos algoritmos deben poder contactar con un ser humano con poder de decisión para poder verificar, impugnar y corregir las eventuales decisiones discriminatorios y sesgadas que generen tales sistemas. Además, los seres humanos siempre deberían poder anular las decisiones automatizadas y tener la opción de desactivar o limitar los sistemas de inteligencia artificial, recurriendo, cuando sea posible a su personalización, tal como recomienda el Informe del Parlamento Europeo que incluye recomendaciones destinadas a la Comisión Europea sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas, de 8 de octubre de 2020, y sin perjuicio de la aplicación del Reglamento General de Protección de Datos (específicamente, del artículo 22 referido a las decisiones individuales automatizadas, incluida la elaboración de perfiles).

En Europa ya existen normas que regulan y exigen la transparencia de los algoritmos informáticos utilizados en las plataformas, como es el caso del Reglamento (UE) 2019/1150 del Parlamento Europeo y del Consejo, de 20 de junio de 2019, sobre el fomento de la equidad y la transparencia para los usuarios profesionales de servicios de intermediación en línea (conocido como Reglamento P2B) que impone obligaciones de transparencia (artículo 5) a los proveedores de servicios de intermediación en línea y a los proveedores de motores de búsqueda en línea para que definan de antemano y de modo comprensible los parámetros principales que determinan la clasificación de sus usuarios profesionales y comerciales en sus plataformas y motores de búsqueda. El objetivo de esta norma es incrementar la previsibilidad para tales usuarios y facilitarles un entendimiento sobre cómo funcionan los algoritmos informáticos que regulan los mecanismos de clasificación (rankings) y, de este modo, permitirles comparar las prácticas de clasificación empleadas por varios proveedores.


Algoritmo Legal es una firma alternativa y especializada en el asesoramiento legal de proyectos y negocios que utilizan algoritmos de inteligencia artificial y tecnologías conexas. Realizamos auditoría legal y evaluaciones de impacto algorítmica con el fin de garantizar la viabilidad legal de tu modelo de negocio y de que puedas realizar tu actividad empresarial con seguridad jurídica. Defendemos ante los tribunales de justicia a personas que vean afectados sus derechos fundamentales por el uso de dichas tecnologías como sucede cuando estamos frente a algoritmos opacos, discriminatorios y sesgados.
Ofrecemos además asesoría jurídica mercantil especializada en derecho societario, venture capital y capital riesgo a startups e inversores de proyectos innovadores y tecnológicos.
Para más información puedes contactarnos aquí.
¿Es discriminatorio el algoritmo de Deliveroo que «rankea» a sus riders?
5 (100%) 1 vote[s]

Licencia de Creative Commons

Artículo bajo licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

 

"NO REPRODUZCAS SIN CITAR LA FUENTE"

Estimado lector: dispones del permiso del titular de Algoritmo Legal y del autor de este artículo para reproducir todo o una parte del mismo siempre que cites la fuente de origen. Simplemente indica lo siguiente:

 

Ricardo Oliva León. ¿Es discriminatorio el algoritmo de Deliveroo que «rankea» a sus riders? [online]. Algoritmo Legal. 06/01/2021. https://www.algoritmolegal.com/tecnologias-disruptivas/es-discriminatorio-el-algoritmo-de-deliveroo-que-rankea-a-sus-riders/. Consulta: [indicar la fecha en que has consultado el artículo]

 

Ricardo Oliva León

Abogado y socio director de Algoritmo Legal. Especializado en Derecho de las nuevas tecnologías y Derecho mercantil. Imparte clases en cursos de postgrado, escribe y habla sobre las cuestiones jurídicas que plantean internet, la inteligencia artificial, la blockchain, los pactos de socios, las startups y la legaltech. Su cuenta de Twitter es @RicarditoOliva y su email es ricardo@algoritmolegal.com

También te podría gustar...

3 Respuestas

  1. Carlos Lluch dice:

    Me parece, como ciudadano de a pie, una decisión lógica y que corrige una actitud que puede considerarse tóxica por parte de la empresa.
    Los derechos de las personas, de los trabajadores y de los – potencialmente- falsos autónomos, no pueden verse obstaculizados o ser objeto de presión ni de forma directa ni indirectamente.
    El ranking debiera ser cualitativo, no cuantitativo. De caer en ese último modelo tan solo se favorece que trabajo de saturación, a toda velocidad y puede acabar impulsando comportamientos que, en otros ámbitos distintos del laboral, afecten a la seguridad de las personas como, por ejemplo, ir contra-dirección por una calle para ganar tiempo o afectar a la reputación de la marca cliente, por ejemplo por no dedicar ni un segundo a un saludo.
    El término «productividad» no puede ni debe ir más allá de la línea roja de una cierta ética de negocio y de comportamiento responsable.
    Gracias, Ricardo, por traernos este tema a estudio.
    Saludos

  2. Gracias Carlos por tu aportación y comentario que comparto.

  1. 25/02/2021

    […] -Ricardo Oliva León, nuestro socio director, miembro de la Sección, y especialista en Inteligencia Artificial y Derecho, quien compartió sus reflexiones y pareceres sobre los algoritmos sesgados y discriminatorios, con particular énfasis en la reciente sentencia italiana que condenó a Deliveroo por discriminación en su algoritmo sobre rider…. […]

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con asterisco.

Apariciones en Medios

Thomson Reuters El País Europa Press Wolters Kluwer Cadena Ser La Vanguardia Cinco Días Lawyerpress Law & Trends Confilegal Lefebvre Heraldo de Aragón El Peruano Criptonoticias 20 minutos
error: Este contenido está protegido.
×