Contratación online

Transparencia algorítmica y condiciones de trabajo

Inteligencia artificial y transparencia algoritmica Tiempo estimado de lectura: 14 minutos

Inteligencia artificial, transparencia algorítmica y derechos laborales en España

1. Introducción

El 12 de mayo de 2021 se publicó en el Boletín Oficial del Estado español el Real Decreto-ley 9/2021, de 11 de mayo, que pretende garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de las plataformas digitales, con efectos a partir del día 12 de agosto de 2021.

Para ello esta nueva norma legal introduce dos modificaciones relevantes en la normativa reguladora del trabajo asalariado o trabajo por cuenta ajena en España, a decir, el Texto Refundido de la Ley del Estatuto de los Trabajadores (ET). Las modificaciones concretas son las siguientes:

  1. El órgano de representación de los trabajadores en las empresas de más de 50 trabajadores (el llamado “Comité de Empresa”) tendrá derecho a:

Ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.

Este cambio normativo se manifiesta en la introducción de la letra d) en el artículo 64.4 del ET. Hay que resaltar que es la primera vez que una norma española impone al empresario una obligación de transparencia algorítmica y un deber de explicabilidad sobre el funcionamiento de los algoritmos de inteligencia artificial que utiliza para adoptar decisiones que afecten las condiciones laborales y el acceso y mantenimiento del empleo.

  1. La presunción de laboralidad o de ser considerado trabajador por “cuenta ajena” establecida por la ley se extiende ahora al ámbito de las plataformas digitales. En tal sentido, concretamente, se establece que:

“se presume incluida en el ámbito de esta ley la actividad de las personas que presten servicios retribuidos consistentes en el reparto o distribución de cualquier producto de consumo o mercancía, por parte de empleadoras que ejercen las facultades empresariales de organización, dirección y control de forma directa, indirecta o implícita, mediante la gestión algorítmica del servicio o de las condiciones de trabajo, a través de una plataforma digital”.

Este cambio se manifiesta en la introducción de una nueva disposición adicional, la disposición adicional vigesimotercera del ET.

En el presente artículo única y exclusivamente voy a referirme a qué debe entenderse por algoritmos o sistema de inteligencia artificial (IA) basados en parámetros, reglas e instrucciones que afectan la toma de decisiones sobre las condiciones de trabajo y el acceso y mantenimiento del empleo, incluida la elaboración de perfiles, y por tanto solamente haré mención al artículo 64.4.d) del ET.

No voy a entrar a analizar si es justo o no, o si es económicamente eficiente o no atribuir una “presunción de laboralidad” a las prestaciones de servicios en plataformas digitales de reparto, cuestión sobre la que previamente el Tribunal Supremo español se ha pronunciado y ha dejado zanjada en su sentencia 805/2020 de 25 de septiembre de 2020 (el caso Globo). Dejo el análisis de este concreto tema a los abogados especializados en derecho del trabajo.

 

2. Algoritmos de inteligencia artificial en el ámbito del derecho del trabajo

Para entender mejor el alcance de la nueva normativa, conviene mencionar algunos ejemplos reales de uso de algoritmos de inteligencia artificial en el ámbito del derecho del trabajo. Veamos los siguientes casos:

  • El Centro de Visión por Computación de Cataluña presentó en el Mobile World 2019 un recomendador de recursos humanos cuyo objetivo era determinar el perfil ocupacional y las aptitudes de los candidatos a partir del análisis comportamental y gestual de las personas. ¿Cómo funciona? Una cámara graba al candidato mientras un software que opera con algoritmos capta los gestos faciales y detecta las emociones, por ejemplo, si tenía una actitud nerviosa, confiada, más reflexiva, etc. El director de recursos humanos basa su evaluación final en su impresión personal pero también en el análisis realizado por dicho software.

 

  • A partir del historial las asistencias o ausencias del personal de un centro hospitalario, un algoritmo desarrollado por el laboratorio de investigación de la Universidad Politécnica de Cataluña predice cuántas personas no se presentarán a su puesto de trabajo y si un servicio determinado se quedará cojo de personas durante ciertos días.

 

  • El Servicio Público de Empleo Catalán utiliza algoritmos de órdenes lógicas que, programados para seguir determinadas variables y criterios preestablecidos, automatizan el trámite de otorgamiento de subvenciones destinadas a la formación concedidas a entidades públicas y privadas.

 

  • El Centro Tecnológico EUROCAT ha diseñado para el Servicio Público de Empleo de Cataluña y el Departamento de Educación un algoritmo que permite predecir la probabilidad de encontrar trabajo y de inserción laboral que tiene una persona concreta a partir del análisis de las ofertas publicadas en los portales Infojobs y Feina Activa. Se trata de una herramienta destinada a apoyar el trabajo del profesional orientador.

 

  • Kronos, una empresa de gestión de personal con sede en Boston desarrolló una gama de herramientas de software para la gestión de la mano de obra, incluido el programa informático llamado Workforce Ready HR. Dicho programa contenía un “test de personalidad” para ser utilizado en los procesos de selección y contratación de trabajadores. Según los resultados de dicha prueba, el candidato podía ser o no admitido al empleo. Los algoritmos de este software pretenden ayudar a las empresas a seleccionar, contratar e integrar a los candidatos que con mayor probabilidad serán productivos para la empresa; para ello los algoritmos evalúan las diferencias individuales entre los postulantes al empleo en materia de inestabilidad emocional, diligencia, ambición y dinamismo.

 

  • Gild, una start-up con sede en San Francisco, revisa millones de sitios web de empleo y analiza lo que denomina los “datos sociales” de cada persona. La empresa desarrolla perfiles de candidatos para sus clientes, en su mayoría empresas tecnológicas, y les informa cuando los candidatos añaden nuevas competencias. Además, predice el momento en el que es probable que un empleado cambie de trabajo con el fin de avisar a sus clientes cuándo es el mejor momento para hacerle una oferta. El modelo de Gild utiliza algoritmos para buscar correlaciones y patrones para cuantificar y cualificar el “capital social” de cada trabajador.

 

  • En 2008 la empresa de San Francisco, Cataphora, lanzó un software (que en 2012 fue vendido a la start-up Chenope) que pretendía evaluar a los trabajadores del sector tecnológico en una seria de aspectos, especialmente su capacidad para generar ideas nuevas. Para ello dicho software analizaban el correo electrónico y los mensajes de la empresa buscando ideas. A partir de lo descubierto el sistema concluía que trabajadores eran generadores y cuáles eran conectores. Y en mérito a ello el algoritmo decidía a quién despedir “con preferencia” cuando llegaba el momento de hacerlo.

 

  • El sistema de evaluación docente, conocido como “modelo de valor añadido” y basado en el Informe “A Nation At Risk”, fue utilizado en los Estados Unidos hasta hace unos pocos años para identificar a los maestros con bajo rendimiento para, de ser el caso, adoptar medidas que podían llegar al despido. Dicho sistema, a partir de las notas obtenidas por los alumnos en los exámenes de acceso a la universidad, media la calidad de los docentes. Para ello los algoritmos del sistema interpretaban datos estadísticos y establecían las puntuaciones de los profesores.

 

Todos estos casos tienen algo en común: describen algoritmos de inteligencia artificial que inciden o pueden incidir en las condiciones de trabajo, el acceso y el mantenimiento del empleo, incluida la elaboración de perfiles. Por tanto, si tales algoritmos fueran utilizados por empresas españolas que tienen un comité de empresa, encajarían bajo el paraguas de la nueva normativa y entrarían dentro del ámbito de aplicación del nuevo artículo 64.4.d) del ET.

 

3. La IA fiable exige transparencia algorítmica y explicabilidad

El Informe “Directrices Éticas para una IA fiable” elaborado por el Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial creado por la Comisión Europea”, publicado en abril de 2019 nos recuerda la importancia y necesidad de ser informado y de poder comprender el funcionamiento de la inteligencia artificial.

Para el Grupo de Alto Nivel uno de los fundamentos de la IA fiable es el principio de explicabilidad. Gracias a este principio se pretende garantizar la confianza de los usuarios en los sistemas de IA. Se trata de que los procesos algorítmicos sean transparentes, que se comunique abiertamente sus capacidades y la finalidad de los sistemas de IA y que las decisiones de tales sistemas deben poder explicarse a quiénes se vean afectadas por ellas.

Cuando no sea posible explicar por qué un modelo ha generado un resultado o una decisión particular estaremos frente a lo que se ha venido a denominar algoritmos de “caja negra”, los cuales son indeseables y requieren una especial atención.

El principio de explicabilidad guarda estrecha relación con uno de los siete requisitos de la IA fiable: la transparencia de los datos, del sistema y de los modelos de negocio de una IA. Dicha transparencia se puede alcanzar, como recomienda el Grupo de Alto Nivel, documentando los datos y procesos de los algoritmos utilizados con el fin de posibilitar la trazabilidad. Esto a su vez permitirá identificar los motivos de una decisión errónea por parte del sistema, lo que a su vez podría ayudar a prevenir futuros errores.

La explicabilidad técnica requiere que las decisiones que adopta un sistema de IA sean comprensibles para los seres humanos y que estos tengan la posibilidad de rastrearlas. Las explicaciones deben adaptarse al nivel de especialización de la parte interesada (que podrían ser una persona no experta en la materia, un investigador o el regulador). El Grupo de Alto Nivel resalta al respecto que debería ser posible disponer en cualquier caso de explicaciones sobre:

  • La medida en que el sistema de IA condiciona e influye en el proceso de toma de decisiones;
  • Las decisiones de diseño del sistema;
  • La lógica subyacente.

Finalmente, esta transparencia implica que las personas tengan el derecho de saber en todo momento que están interactuando con un sistema de IA. Por tanto, los sistemas de IA deben identificarse como tales y no deberían presentarse a sí mismos como humanos ante los usuarios.

 

4. Los algoritmos de IA utilizados en el empleo, la gestión de trabajadores y el acceso al autoempleo se consideran sistemas de inteligencia artificial de alto riesgo

El planteamiento del Grupo de Expertos sobre la transparencia y explicabilidad de los algoritmos de IA ha sido recogido en la Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (propuesta de Reglamento europeo de inteligencia artificial) publicada el 21 de abril de 2021 y es exigido como requisito obligatorio a los llamados sistemas de inteligencia artificial de alto riesgo.

La propuesta define “sistema de IA” en su artículo 3.1 como el software que se desarrolla empleando una o varias de las técnicas y estrategias mencionadas a continuación y, que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa. Las referidas técnicas y estrategias son tres:

  • Estrategias de aprendizaje automático (machine learning), incluidos el aprendizaje supervisado, el no supervisado y el realizado por esfuerzo, que emplean una amplia variedad de métodos, entre ellos, el aprendizaje profundo (deep learning).
  • Estrategias basadas en la lógica y el conocimiento, especialmente la representación del conocimiento, la programación (lógica) inductiva, las bases de conocimiento, los motores de inferencia y deducción, los sistemas expertos y de razonamiento (simbólico).
  • Estrategias estadísticas, estimación bayesiana, métodos de búsqueda y optimización.

¿Qué se entiende por sistemas de IA de alto riesgo?

Ahora bien, los sistemas de inteligencia artificial serán de “alto riesgo” cuando reúnan dos condiciones: están destinados a ser utilizados como componente de seguridad de uno de los productos contemplados en la legislación europea de armonización y el producto del que el sistema de IA es componente de seguridad debe someterse a una evaluación de conformidad realizada por un organismo independiente para su introducción en el mercado o puesta en servicio. Los sistemas de IA también serán de “alto riesgo” si figuran dentro de los mencionados en el Anexo III de la propuesta de Reglamento.

Y, precisamente, dicho Anexo III considera como uno de los sistemas de inteligencia artificial de alto riesgo, los sistemas de IA relacionados con el empleo, la gestión de los trabajadores y el acceso al autoempleo, más concretamente:

  1. a) Los sistemas de IA destinados a utilizarse para la contratación o selección de personas físicas, especialmente para anunciar puestos vacantes, clasificar y filtrar solicitudes o evaluar a candidatos en el transcurso de entrevistas o pruebas;
  2. b) La IA destinada a utilizarse para tomar decisiones relativas a la promoción y resolución de relaciones contractuales de índole laboral, a la asignación de tareas y al seguimiento y evaluación del rendimiento y la conducta de las personas en el marco de dichas relaciones.

Por tanto, los sistemas de IA que operan en el ámbito del empleo, la gestión de los trabajadores y el acceso al autoempleo estarán obligados a cumplir con los requisitos impuestos por la propuesta de Reglamento europeo de inteligencia artificial para los sistemas de IA de alto riesgo en sus artículos del 8 al 15.

Especial mención merece el artículo 13 de la propuesta de Reglamento que establece que “los sistemas de IA de alto riesgo se diseñarán y desarrollarán de un modo que garantice que funciona con un alto nivel de transparencia suficiente para que los usuarios interpreten y usen correctamente su información de salida”. Estos sistemas “irán acompañados de las instrucciones de uso correspondientes en un formato digital o de otro tipo adecuado, las cuales incluirán información concisa, completa, correcta y clara que sea pertinente, accesible y comprensible por los usuarios”.

Además, se indica que es preciso llevar registros y disponer de documentación técnica que contenga la información necesaria para evaluar si el sistema de IA en cuestión cumple los requisitos pertinentes. Dicha información deberá incluir, en particular, las características, capacidades y limitaciones generales del sistema: los algoritmos, los datos, los procesos de entrenamiento, prueba y validación empleados, y documentación sobre el sistema de riesgos pertinente (ver considerando 46 de la propuesta de Reglamento).

Sobre los sistemas de IA de alto riesgo, la propuesta resalta que debe exigirse cierto grado de transparencia a fin de subsanar la opacidad que puede hacer a algunos de ellos incomprensible o demasiado complejos para las personas físicas. También, se dispone que los usuarios deben ser capaces de interpretar la información de salida del sistema y de usarla adecuadamente. Por ello, los sistemas de IA de alto riesgo deberán ir acompañados de la documentación y las instrucciones de uso oportunas e incluir información clara y concisa, en particular sobre los posibles riesgos para los derechos fundamentales y de discriminación, cuando corresponda. Esto es lo que dice al respecto el considerando 47 de la propuesta de Reglamento:

“(47) To address the opacity that may make certain AI systems incomprehensible to or too complex for natural persons, a certain degree of transparency should be required for high-risk AI systems. Users should be able to interpret the system output and use it appropriately. High-risk AI systems should therefore be accompanied by relevant documentation and instructions of use and include concise and clear information, including in relation to possible risks to fundamental rights and discrimination, where appropriate.”

 

5. El caso Deliveroo en Italia y transparencia algorítmica en el derecho laboral italiano

Se aprecia cierta similitud entre lo resuelto por el Tribunal Supremo español en el caso Globo y lo resuelto por la jueza italiana Chiara Zompi en el asunto Deliveroo que tuve la ocasión de comentar en una oportunidad anterior. Por otro lado, aunque no diga nada la exposición de motivos del Real Decreto-ley 9/2021, de 11 de mayo, la norma española podría haberse inspirado también en la sentencia de la jueza italiana.

El algoritmo “Frank” utilizado por Deliveroo (Deliveroo Italia s.r.l.) en su plataforma online para clasificar o “rankear” a sus repartidores (riders) fue considerado ilegal por la juez del Juzgado Laboral de Bolonia, Italia (Tribunale Ordinario di Bologna), Chiara Zompi, quien en su resolución judicial de fecha 31 de diciembre de 2020, lo tildó de “algoritmo discriminatorio.

Para la juez italiana quedó demostrada la discriminación por parte de Deliveroo en perjuicio de sus “riders” respecto de las condiciones de acceso a la reserva de sesiones de trabajo establecidas en su plataforma digital a través de su algoritmo “Frank” incorporado en su sistema de reserva SSB.

De acuerdo con lo probado en juicio, los riders gozaban de dos vías para recibir encargos de viajes por parte de Deliveroo: podían reservar sesiones con antelación a través del sistema de reserva SSB (“Self-Service Booking”) o podían iniciar sesión en tiempo real. El sistema de reserva SSB proporciona a los riders un calendario de disponibilidad (“slots”) de la semana entrante para poder recibir encargos de viaje de acuerdo con un ranking (una clasificación) establecido. Los “parámetros” de dicha clasificación son la llamada “tasa de fiabilidad” (número de veces en el que el rider no atendió una sesión que previamente reservó) y la “tasa de participación en los picos” (número de veces en que el rider estuvo disponible para los horarios punta, es decir, de las 20h a las 22h de viernes a domingo).

A criterio de la juez boloñesa, Deliveroo, “utiliza un algoritmo que penaliza de igual forma y sin distinción alguna tanto a los riders que se ausentan temporalmente de su plataforma -y no cumplen con los pedidos dentro de la franja horaria reservada- por motivos fútiles como a los que lo hacen por enfermedad, minusvalía, cuidado de menores o para ejercer su derecho de huelga, estos últimos supuestos legítimos y justificados de abstención laboral”.

 

6. El Reglamento europeo sobre el fomento de la equidad y la transparencia algorítmica para los usuarios profesionales de servicios de intermediación en línea y motores de búsqueda

Como advertí en un artículo previo, en Europa ya existen normas que regulan y exigen la transparencia algorítmica o de los algoritmos informáticos utilizados en las plataformas digitales. Es el caso del Reglamento (UE) 2019/1150 del Parlamento Europeo y del Consejo, de 20 de junio de 2019, sobre el fomento de la equidad y la transparencia para los usuarios profesionales de servicios de intermediación en línea (conocido como Reglamento P2B), en vigor desde el 12 de julio de 2020. Este Reglamento impone obligaciones de transparencia (artículo 5) a los proveedores de servicios de intermediación en línea y a los proveedores de motores de búsqueda en línea para que definan de antemano y de modo comprensible los parámetros principales que determinan la clasificación de sus usuarios profesionales y comerciales en sus plataformas y motores de búsqueda. El objetivo de esta norma es incrementar la previsibilidad para tales usuarios y facilitarles un entendimiento sobre cómo funcionan los algoritmos informáticos que regulan los mecanismos de clasificación (rankings) y, de este modo, permitirles comparar las prácticas de clasificación empleadas por varios proveedores.

Como puede resultar abstracto y ambiguo determinar que debe entenderse por “parámetros”, la Comisión Europea publicó las Directrices sobre la transparencia de la clasificación con arreglo al Reglamento (UE) 2019/1150 del Parlamento Europeo y del Consejo, con el fin de facilitar que los proveedores de servicios de intermediación en línea y los proveedores de motores de búsqueda en línea cumplan y hagan cumplir los requisitos previstos en el artículo 5 del Reglamento P2B (en el Anuario “Nuevas Tecnologías 2021” de Tirant Lo Blanc que se publicará en breve, analizo con más profundidad este tema). Entre los ejemplos ilustrativos de “parámetros de clasificación” la Comisión Europeo en sus Directrices mencionan más de cien, entre los cuales están la velocidad de carga de la página web, las reseñas de los consumidores, la puntuación obtenida en el ámbito de protección de datos basada en las revisiones de las políticas de privacidad de las apps, la calidad del contenido del sitio web, la tasa de robote, la compatibilidad de un sitio web con los dispositivos móviles, los mecanismos de prevención del fraude, la antigüedad del nombre de dominio, etc.

Opino que no estaría demás que se hiciera algo parecido con el nuevo artículo 64.4.d) del ET, con el fin de precisar mejor lo que debe entenderse por “parámetros, reglas e instrucciones” que sustentan los algoritmos de inteligencia artificial y que afectan a la toma de decisiones que inciden en las condiciones de trabajo, el acceso y mantenimiento del empleo.

 

7. Problemas y retos

Como lo he dicho en otras oportunidades, tanto por escrito como en conferencias, el principal reto de la obligación de transparencia, de la explicabilidad y de la auditabilidad algorítmica, en mi opinión, es el respeto a los protección de los secretos empresariales que no debería quedar mermado por el cumplimiento de dicha obligación. Al respecto, el propio Real Decreto-Ley 9/2021 recuerda que el derecho reconocido en favor del Comité de Empresa debe ejercerse “siempre desde el mayor respeto a los secretos industrial y comercial de las empresas” (exposición de motivos II).

Pero qué pasa si el Comité de Empresa considera que la información proporcionada por su empleador, el empresario, es insuficiente. ¿Hasta dónde deben poder llegar los sindicatos?

El límite tiene que estar en los secretos empresariales y la propiedad intelectual. Cuando las fórmulas, los códigos y la lógica subyacente de un sistema de IA están protegidas como secreto empresarial, los trabajadores no deberían poder llegar hasta allí. Evidentemente no es admisible que se usen tales secretos empresariales como tapaderas de algoritmos discriminatorios y sesgados.

No obstante, lo anterior no quita que las empresas tengan también un reto importante que superar: deben ser lo suficientemente claras y transparentes con los trabajadores -lo mismo que con los consumidores y usuarios de la IA- sin que ello signifique que tengan que verse obligadas a relevar la esencia de sus innovaciones algorítmicas y el funcionamiento detallado de sus modelos de negocio que muchas veces son lo que les da competitividad a las compañías y los diferencia de sus competidores en el mercado.

Un artículo de Ricardo Oliva León.


Contacta con nosotros

  • Si buscas abogados expertos en innovación especializados en el asesoramiento jurídico sobre venture capital, emprendimiento, contratación mercantil, internet, inteligencia artificial, tecnología blockchain y protección de activos intangibles, podemos ayudarte.
  • Si quieres que te llamemos menciona el prefijo del país donde te encuentres. Por ejemplo: +49 91122233.
  • (*) Requerido cumplimentar

Licencia de Creative Commons

Artículo bajo licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

 

"NO REPRODUZCAS SIN CITAR LA FUENTE"

Estimado lector: dispones del permiso del titular de Algoritmo Legal y del autor de este artículo para reproducir todo o una parte del mismo siempre que cites la fuente de origen. Simplemente indica lo siguiente:

 

Ricardo Oliva León. Transparencia algorítmica y condiciones de trabajo [online]. Algoritmo Legal. 21/06/2021. https://www.algoritmolegal.com/entorno-juridico-internet/inteligencia-artificial-transparencia-algoritmica/. Consulta: [indicar la fecha en que has consultado el artículo]

 

Ricardo Oliva León

Abogado y socio director de Algoritmo Legal. Especializado en Derecho de las nuevas tecnologías y Derecho mercantil. Imparte clases en cursos de postgrado, escribe y habla sobre las cuestiones jurídicas que plantean internet, la inteligencia artificial, la blockchain, los pactos de socios, las startups y la legaltech. Su cuenta de Twitter es @RicarditoOliva y su email es ricardo@algoritmolegal.com

También te podría gustar...

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con asterisco.

Apariciones en Medios

Thomson Reuters El País Europa Press Wolters Kluwer Cadena Ser La Vanguardia Cinco Días Lawyerpress Law & Trends Confilegal Lefebvre Heraldo de Aragón El Peruano Criptonoticias 20 minutos
error: Este contenido está protegido.
×

Powered by WhatsApp Chat

×