Justicia algorítmica ética
Justicia algorítmica ética
Tiempo estimado de lectura: 8 minutos

Con la llegada de la inteligencia artificial (IA) a los sistemas judiciales nace la llamada justicia algorítmica. Pese al enorme potencial que aquella ofrece a los profesionales de la justicia, sus métodos y técnicas de procesamiento de datos no se encuentran libres de críticas. Se dice que los algoritmos de inteligencia artificial son una especie de cajas negras que pueden reflejar sesgos discriminatorios de diversa naturaleza contrarios a los derechos fundamentales, a pesar de su aparente neutralidad e imparcialidad.

1. Manifestaciones de la justicia algorítmica

Hoy en día ya existen y operan robot lawyers que parecen conversar en lenguaje natural con los humanos con el fin de asesorarles en la resolución de problemas legales simples (ejemplos, DoNotPay y Lee&Ally).

Han aparecido startups de legaltech especializadas en el diseño de herramientas y servicios legales dirigidos a los profesionales del Derecho, principalmente a los abogados, que ofrecen una profunda comprensión y retrato de la información judicial existente -y más específicamente- de las resoluciones judiciales. Se trata de empresas que trabajan para predecir el resultado de decisiones judiciales utilizando herramientas tecnológicas denominadas de justicia predictiva (ejemplos, Watson/Ross de IBM y Blue J Legal). Estas startups también elaboran perfiles de jueces y magistrados en base al estudio histórico de su actividad jurisdiccional (ejemplos, Ravel Law de LexisNexis y LegalOptics).

Por otro lado, se han creado aplicaciones de IA enfocadas a mejorar la investigación legal con vistas a hacer más rápido y eficiente la búsqueda y el procesamiento de información jurídica (ejemplos, Doctrine.fr y Luminance).

Te puede resultar de utilidad leer este post publicado en 2017: La inteligencia artificial en el sector legal.

 

2. La inteligencia artificial en el ámbito civil, mercantil y laboral

En el ámbito civil, mercantil, laboral y contencioso-administrativo, la IA puede facilitar la armonización de la jurisprudencia en los asuntos judiciales donde haya que establecer escalas o baremos (por ejemplo, procesos civiles referidos a daños corporales o indemnizaciones compensatorias por divorcio, y procesos laborales de despidos con indemnización), así como promover la resolución de conflictos online o servicios judiciales electrónicos (ODR) y con ello lograr mayor celeridad procesal.

Cualquiera que sea la tradición jurídica de un país, la incertidumbre legal, es decir, el riesgo de no saber si una reclamación judicial será estimada o desestimada, es algo que se quiere evitar o reducir a toda costa. La IA puede ayudar a cuantificar los factores que pueden inclinar la balanza a uno u otro lado. Gracias a esta tecnología los abogados encuentran la posibilidad de proporcionar a sus clientes un asesoramiento legal mejor informado mediante la evaluación empírica y sistemática de las posibilidades de éxito de un procedimiento judicial concreto; de este modo pueden determinar si es más conveniente promover una transacción extrajudicial antes que someterse a un costoso y largo juicio.

En primer lugar, el cálculo de las escalas o baremos parece mejorar considerablemente cuando se combinan técnicas informáticas de procesamiento de datos con un enfoque probabilístico o actuarial. Sin embargo estos métodos, para que sean fiables, deben superar antes un desafío cualitativo: el proceso llevado a cabo por el machine learning (aprendizaje automático) o por cualquier otro método de procesamiento debe haber sido alimentado con datos originales y permitir distinguir lo importante de lo insignificante. Existe además un riesgo que puede afectar la imparcialidad de tales métodos y es la tendencia a seleccionar únicamente datos que sean significativos para las cuadrículas de análisis predeterminados, excluyendo de las muestras las decisiones judiciales que no sintonicen bien con las correlaciones de las secuencias lingüísticas establecidas por el machine learning.

En segundo lugar, es sabido que todos los tribunales de justicia, en diferente grado, conocen litigios civiles de baja cuantía repetitivos (por ejemplo, devolución de pequeños préstamos, impagos o indemnizaciones tasadas). La resolución de este tipo de procedimientos (junto a los divorcios por mutuo acuerdo o, incluso, asuntos fiscales simples) podría facilitarse gracias a las tecnologías de la información y/o delegando la competencia sobre los mismos a tribunales especiales para que los resuelvan vía ODR. La idea es conducir a los reclamantes de este tipo de procedimientos a un diagnóstico automatizado de la disputa mediante una serie de preguntas cuyas respuestas serían procesadas por una máquina, la que le ofrecería como resultado final una propuesta de solución.

Este último planteamiento tampoco está exento de problemas: ¿Sobre qué base se calcularía las cantidades a pagar? ¿Qué métodos se usaría? ¿El algoritmo procesaría siempre la información de manera justa? ¿Cómo podría el demandado ejercer su derecho de contradicción? ¿Podrían ser impugnadas esas decisiones electrónicas automatizadas ante un juez humano? ¿Este tipo de procedimientos debería ser obligatorio antes de acudir a la vía judicial?

Tenemos además algunas prescripciones legales que debemos tener en cuenta al momento de regular este tipo de procedimiento ODR: el derecho de acceso a un tribunal y el derecho a un recurso judicial efectivo (artículos 6 y 13 del Convenio Europeo de Derechos Humanos), además del derecho de las personas físicas a negarse a ser objeto de una decisión basada exclusivamente en un procedimiento automatizado, con ciertas excepciones (artículo 22 del Reglamento General de Protección de Datos).

3. Justicia penal e inteligencia artificial

El sistema de justicia penal representa una de las áreas centrales de la actividad estatal puesto que asegura el orden público, previene violaciones de derechos fundamentales y detecta, investiga, procesa y sanciona delitos. Al mismo tiempo otorga a las autoridades importantes poderes intrusivos o coercitivos que incluyen la vigilancia, el arresto, el registro y la incautación, la detención y el uso de fuerza física.

Las herramientas de procesamiento de datos se utilizan cada vez más en la administración de justicia penal. Los sistemas más avanzados utilizan algoritmos predictivos para informar sobre la toma de decisiones en áreas que incluyen patrones policiales, libertad bajo fianza y juzgamiento. Estos algoritmos, de muchas maneras, han demostrado su eficacia y, a menudo, son muy valorados por las autoridades que los utilizan.

Sin embargo, existen serios motivos para preocuparnos. Estos sistemas suelen ser diseñados y ofrecidos por empresas privadas (startups de legaltech) por lo que los algoritmos son secretos comerciales o “cajas negras” que no pueden ser objeto de un escrutinio público. La calidad de lo que sale de un algoritmo depende de la calidad de los datos que entran: si los datos de entrada reflejan inadvertidamente, por ejemplo, el sesgo racial, lo que sale también será lo mismo, a pesar de la aparente neutralidad y objetividad del algoritmo.

Los responsables en adoptar decisiones (por ejemplo, los jueces y la policía) pueden ser reacios a apartarse de las recomendaciones generadas por los algoritmos cayendo en el error de ver a los informáticos y matemáticos como los “sumos sacerdotes” de la justicia, en detrimento del importante papel que cumple el juicio individual y la discrecionalidad.

Además, los departamentos de policía pueden perder el control sobre sus propios “datos”, lo que los hace dependientes de las compañías privadas que los han adquirido, sin más remedio que mantener relaciones contractuales a cualquier costo.

Es importante por todo esto examinar la función de los algoritmos de inteligencia artificial en los sistemas de justicia penal desde la perspectiva de las normas y los estándares sobre derechos humanos y el Estado de Derecho, con miras a hacer posibles recomendaciones a los Estados miembros a fin de adoptar las medidas pertinentes. No se trata de prohibir la IA. Se trata de promoverla y aprovechar su gran potencial sin vulnerar las libertades y derechos básicos de los ciudadanos.

abogado legaltech -Ricardo Oliva

4. Ética del uso de la inteligencia artificial en los sistemas judiciales europeos

La European Commission for the Efficiency of Justice (CEPEJ) acaba de aprobar el 3 de diciembre de 2018 la Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno que se ha publicado en la web del Consejo de Europa. Esta Carta proporciona un marco de principios éticos que pueden orientar a políticos, legisladores y profesionales de la justicia cuando se enfrentan ante el rápido desarrollo de la inteligencia artificial en los procesos judiciales nacionales.

Los cinco (5) principios éticos básicos adoptados por la CEPEJ que deben respetarse al aplicar la IA a la justicia, son los siguientes:

1. Principio de respeto a los derechos humanos, que establece que el diseño y la implementación de las herramientas y los servicios de IA sean compatibles con los derechos fundamentales recogidos en el Convenio Europeo de Derechos y Humanos, y en el Convenio nº 108 del Consejo de Europa de 28 de enero de 1981 para la protección de las personas con respecto al tratamiento automatizado de datos de carácter personal.

2. Principio de no discriminación, que persigue evitar el desarrollo o la intensificación de cualquier discriminación entre individuos o grupos de individuos (por el origen étnico o racial, antecedentes socio-económicos, opiniones políticas, creencias filosóficas o religiosas, afiliación sindical, datos genéticos, datos biométricos, datos relacionados con la salud, y orientación sexual), especialmente al momento de realizar categorización o clasificación de datos relacionados con tales individuos o grupos de individuos.

3. Principio de calidad y seguridad, según el cual el procesamiento de datos y decisiones judiciales debe utilizar fuentes certificadas (confiables), y los modelos y algoritmos creados deben estar almacenados y ser ejecutados en entornos seguros y trazables con el fin de asegurar su integridad e intangibilidad.

4. Principio de transparencia, imparcialidad y justicia, que establece la imperiosa necesidad de hacer accesibles y comprensibles los métodos y el proceso de diseño utilizados para el procesamiento de datos, teniendo en cuenta los derechos de propiedad intelectual y secretos de empresas del inventor. También persigue evitar la eliminación de prejuicios y parcialidad cuando se diseñan herramientas de IA que pueden afectar significativamente la vida de las personas, en este caso, en el sector justicia.

5. Principio de “bajo control del usuario”, que busca asegurar que los usuarios del sistema de administración de justicia estén debidamente informados sobre el carácter vinculante de las herramientas de IA que se le ofrezcan y de las diferentes opciones disponibles, especialmente de si va estar sometido a un procedimiento judicial donde su asunto será procesado parcialmente o totalmente por una IA. En este último caso, el usuario tendrá derecho a objetar dicho procesamiento de datos.

De este modo, Europa se coloca a la vanguardia del debate acerca de la compatibilidad del uso de la IA en la administración de justicia con los derechos fundamentales, y los principios de imparcialidad, transparencia, calidad, seguridad y control, y por ende de la justicia algorítmica.

 

Descárgate la “Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno documento” aquí.

5/5 - (1 voto)

Licencia de Creative Commons

Artículo bajo licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

 

"NO REPRODUZCAS SIN CITAR LA FUENTE"

Estimado lector: dispones del permiso del titular de Algoritmo Legal y del autor de este artículo para reproducir todo o una parte del mismo siempre que cites la fuente de origen. Simplemente indica lo siguiente:
Ricardo Oliva León. ¿Justicia algorítmica ética? [online]. Algoritmo Legal. 13/12/2018. https://www.algoritmolegal.com/tecnologias-disruptivas/justicia-algoritmica-etica/. Consulta: [indicar la fecha en que has consultado el artículo]

 

Un artículo de Ricardo Oliva León.

Abogado y socio director de Algoritmo Legal. Especializado en Derecho de las nuevas tecnologías y Derecho mercantil. Imparte clases en cursos de postgrado, escribe y habla sobre las cuestiones jurídicas que plantean internet, la inteligencia artificial, la blockchain, los pactos de socios, las startups y la legaltech. Su cuenta de Twitter es @RicarditoOliva y su email es ricardo@algoritmolegal.com

4 Respuestas

  1. Los Jueces no pueden evitar sus sesgos de procesamiento de información. Su formación no es suficiente para crear jueces imparciales. Es más peligroso un Juez camufladamente parcial que un algoritmo. El primero es de dificil reeducación y eliminación el segundo si, se cambia y listo para volver a operar

  2. Para detectar si un algoritmo ha sido diseñado con sesgos discriminatorios primero habrá que destapar la “caja negra” que lo cubre y eso no siempre será una tarea fácil porque su inventor lo tendrá protegido como secreto comercial. Para eliminar el algoritmo sesgado habrá que detectarlo primero. El artículo 22 del Reglamento General de Protección de Datos consagra el derecho a gozar de una explicación para pedir informaciones sobre una “decisión algorítmica” que se hubiera tomado sobre nosotros. La clave está en exigir transparencia desde el inicio, en mi opinión.
    Y sobre lo que dices del juez coincido plenamente: como todo ser humano, tiene su ideología, sus prejuicios y complejos asentados a lo largo de los años. No obstante, creo que muchos jueces son conscientes de esa situación y se esfuerzan por actuar siempre con la mayor imparcialidad posible.

  1. 13/12/2020

    […] de IA por parte del sistema judicial. En este contexto, los principios establecidos por la Carta Ética de la CEPEJ sobre el uso de la Inteligencia Artificial en los sistemas judiciales y su … pueden resultar muy útiles y deberían […]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

error: Este contenido está protegido.