Contratación online

Inteligencia artificial y marco ético europeo

Ética de la inteligencia artificial Tiempo estimado de lectura: 13 minutos
Propuesta del Parlamento Europeo

En octubre de 2020 el Parlamento Europeo publicó un paquete de recomendaciones normativas compuesto por tres propuestas de Reglamento dirigidas a la Comisión Europea con el fin de regular la inteligencia artificial en la Unión Europea (UE).

En las entradas anteriores Inteligencia artificial y propiedad intelectual e industrial e Inteligencia artificial y responsabilidad civil por daños hemos analizado en el blog de Algoritmo Legal dos de las tres propuestas de Reglamento.

En esta oportunidad analizaremos la tercera de las propuestas, es decir, el Informe con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas de 8 de octubre de 2020 (en adelante, el Informe).

El Informe (de 144 folios) ha sido firmado por eurodiputado español Iban García del Blanco y fue aprobado por 559 votos a favor, 44 en contra y 88 abstenciones.

TABLA DE CONTENIDO

1. ¿Cuál es el objetivo del Informe?

El Informe establece una propuesta de marco regulador de la UE de principios éticos y obligaciones legales para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas.

Por “desarrollo” se entiende la construcción y el diseño de algoritmos, la redacción y el diseño de programas informáticos o la recopilación, el almacenamiento y la gestión de datos con el fin de crear o entrenar la inteligencia artificial, la robótica y las tecnologías conexas o de crear una nueva aplicación para tales tecnologías.

Por “implementación” se entiende el funcionamiento y la gestión de la inteligencia artificial, la robótica y las tecnologías conexas, así como su comercialización o cualquier otra forma de puesta a disposición de los usuarios.

Y por “uso” se entiende toda acción relacionada con la inteligencia artificial, la robótica y las tecnologías conexas distinta del desarrollo o la implementación.

2. ¿Qué se entiende por inteligencia artificial, robótica y tecnologías conexas?

La propuesta define la inteligencia artificial como un sistema basado en programas informáticos o incorporado en dispositivos físicos que manifiesta un comportamiento inteligente al ser capaz, entre otras cosas, de recopilar y tratar datos, analizar e interpretar su entorno y pasar a la acción, con cierto grado de autonomía, con el fin de alcanzar objetivos específicos.

Define robótica a las tecnologías que permiten que las máquinas controladas automáticamente, reprogramables y multifuncionales, realicen en el mundo físico acciones tradicionalmente realizadas o iniciadas por los seres humanos, en particular mediante la inteligencia artificial o las tecnologías conexas.

Por tecnologías conexas entiende las tecnologías que permiten que los programas informáticos controlen, con un grado de autonomía parcial o total, un proceso físico o virtual; las tecnologías capaces de detectar los datos biométricos, genéticos o de otro tipo; y las tecnologías que copian o utilizan de otro modo características humanas.

Y por “autonomía” alude a un sistema de inteligencia artificial que funciona interpretando determinados datos de entrada y utilizando un conjunto de instrucciones predeterminadas, sin limitarse a ellas, a pesar de que el comportamiento del sistema esté orientado a cumplir el objetivo que se le haya asignado y esté limitado por este y por otras decisiones de diseño pertinentes tomadas por su desarrollador.

En adelante, utilizaremos simplemente el término “Tecnologías de IA” para referirme a la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por tales tecnologías.

3. ¿Directiva (UE) o Reglamento (UE)?

Se considera que un marco regulador para la inteligencia artificial reviste una importancia fundamental a la hora de evitar la fragmentación del mercado interior europeo resultante de la divergencia normativa entre las legislaciones nacionales.

Por eso se propone la adopción de un Reglamento con el fin de garantizar la aplicación homogénea en toda la UE de dicho marco regulador compuesto de principios éticos y obligaciones legales comunes.

4. Contenido de la propuesta de nuevo Reglamento y recomendaciones específicas

La propuesta de nuevo Reglamento, si bien se centra esencialmente en las Tecnologías de IA consideradas de “alto riesgo”, también dedica una parte a los principios éticos aplicables a cualquier Tecnología de IA.

Inteligencia artificial y marco ético

A continuación, resumimos el contenido normativo de la propuesta de nuevo Reglamento:

4.1 ¿Cuál es el ámbito de aplicación de la propuesta de Reglamento?

El Reglamento se aplicará a las Tecnologías de IA desarrolladas, implementadas o utilizadas en la UE.

Se señala que resulta irrelevante para la aplicación del futuro Reglamento que los programas informáticos, los algoritmos o los datos utilizados o producidos por tales tecnologías estén localizados fuera de la UE o no tengan una ubicación geográfica específica.

4.2 ¿Cuáles son los principios éticos aplicables a cualquier tecnología de inteligencia artificial?

La propuesta de Reglamento establece que las Tecnologías de IA se desarrollarán, implementarán y utilizarán en la UE de conformidad con el Derecho de la UE y, particularmente, respetando los siguientes principios: dignidad, autonomía y seguridad humanas, y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la UE.

Se resalta además que estas tecnologías deberán estar alineadas con el Reglamento General de Protección de Datos (RGPD) y la Directiva sobre la privacidad y las comunicaciones electrónicas cuando se realice a través de ellas un tratamiento de datos personales, incluidos los datos personales derivados de datos no personales y de datos biométricos.

Se menciona que la UE fomentará los proyectos de investigación que ofrezcan soluciones basadas en Tecnologías de IA siempre que promuevan: la inclusión social, la democracia, la pluralidad, la solidaridad, la equidad, la igualdad y la cooperación.

4.3 ¿Qué se entiende por tecnologías de inteligencia artificial de alto riesgo?

Una Tecnología de IA se considera de alto riesgo cuando pueda generar un riesgo significativo de causar lesiones o daños a las personas o a la sociedad, vulnerando los derechos fundamentales y las normas de seguridad establecidas en el Derecho de la UE.

A efectos de su consideración como tales, deben tenerse en cuenta el sector en el que se desarrollan, implementan o utilizan, su uso o finalidad específica y la gravedad de la lesión o daño que cabe esperar que se produzca.

4.3.1 ¿Quién dictamina cuándo estamos frente a una tecnología de inteligencia artificial de alto riesgo y en base a qué?

Serán las autoridades nacionales de control, bajo la coordinación de la Comisión Europea o de cualquier otra entidad de la UE designada para tal efecto, las que determinarán cuando la Tecnología de IA entraña un alto riesgo.

Para ello tales autoridades deberán realizar previamente una evaluación de riesgos imparcial, basada en criterios objetivos, externa y regulada, teniendo en cuenta la lista de sectores y fines de alto riesgo que figuran en el Anexo de la propuesta de Reglamento. Esta lista estará sometida a una actualización y reevaluación periódica por parte la Comisión Europea, habida cuenta del carácter evolutivo de estas tecnologías.

La Comisión Europea, en cooperación con las autoridades nacionales de control, elaborará y actualizará una lista común de Tecnologías de IA de alto riesgo identificas en la UE.

4.3.2 ¿Cuáles son las tecnologías de inteligencia artificial de alto riesgo?

La propuesta de Reglamento incorpora en su Anexo una lista exhaustiva y acumulativa de sectores y fines considerados de alto riesgo debido a que conllevan un riesgo de violación de los derechos fundamentales y las normas de seguridad establecidas en la UE.

4.3.3 ¿Cuáles son los sectores de alto riesgo?

Se mencionan los siguientes sectores: empleo, educación, asistencia sanitaria, transporte, energía, sector público (asilo, migración, controles fronterizos, sistema judicial y servicios de seguridad social), seguridad y defensa y el sector de finanzas, bancos y seguros.

4.3.4 ¿Cuáles son los usos o fines de alto riesgo?

Se mencionan como usos o fines de alto riesgo los siguientes: contratación; clasificación y evaluación de estudiantes; asignación de fondos públicos; concesión de préstamos; comercio, corretaje, fiscalidad, etc.; tratamientos y procedimientos médicos; procesos electorales y campañas políticas; decisiones del sector público que tienen un impacto significativo y directo en los derechos y las obligaciones de las personas físicas o jurídicas; conducción automatizada; gestión del tráfico; sistema militares autónomos; producción y distribución de energía; gestión de residuos; y control de emisiones.

4.4 ¿Cuáles son las obligaciones exigidas para las tecnologías de inteligencia artificial de alto riesgo?

La propuesta de Reglamento establece un conjunto de seis categorías de obligaciones que deberán cumplir las Tecnologías de IA de alto riesgo.

A continuación, vamos a referirnos a cada una de tales obligaciones:

4.4.1 Obligación de garantizar una inteligencia artificial antropocéntrica y antropogénica

Las Tecnologías de IA de alto riesgo deben desarrollarse, implementarse y utilizarse de forma que se garantice, en todo momento, una supervisión humana integral. Esto supone que pueda reestablecerse en todo momento el control humano cuando sea necesario, incluso a través de la alteración o la desactivación de tales tecnologías.

4.4.2 Obligación de seguridad, transparencia y rendición de cuentas

En virtud de esta obligación las Tecnologías de IA de alto riesgo se desarrollarán, implementarán y utilizarán de modo que se garantice:

a) Un nivel de seguridad adecuado, lo que exige que se adopten unas medidas sólidas para evitar vulneraciones técnicas de la seguridad, ciberataques, fugas, intoxicación y usos indebidos de los datos.

b) La existencia de salvaguardas que incluyan un plan alternativo y medidas en caso de riesgos para la seguridad o la protección personal.

c) Un rendimiento fiable, lo que implica que el usuario de estas tecnologías pueda anticipar razonablemente la consecución de los objetivos y la realización de actividades para las que ellas han sido concebidas, en particular, garantizando la “reproductibilidad” de todas las operaciones.

d) La exactitud de la realización de los objetivas y de las actividades de las Tecnologías de IA concretas debiendo advertirse a los usuarios de estas tecnologías sobre la probabilidad de que se produzcan errores o inexactitudes.

e) La explicabilidad de las Tecnologías de IA, por lo que deberán ser fácilmente explicables para los consumidores y accesibles para las autoridades nacionales de control y de vigilancia del mercado. Esto garantizará que se pueda realizar una revisión de los procesos técnicos de estas tecnologías.

La explicabilidad implica adoptar medidas de transparencia destinadas a presentar, siempre que sea técnicamente posible, explicaciones claras y comprensibles sobre los datos y el algoritmo utilizado por las Tecnologías de IA, así como sobre su finalidad, sus resultados y sus riesgos potenciales.

Detrás de la obligación de explicabilidad subyace la idea de que los ciudadanos tienen derecho al conocimiento y a la comprensión de los procesos técnicos de las Tecnologías de IA que les afecten, a fin de garantizar que puedan realizar una revisión de tales procesos.

Las Tecnologías de IA deben estar diseñadas y construidas de una manera que permitan su evaluación, auditabilidad y trazabilidad las cuales no serían posibles sin la garantía previa de la explicabilidad.

f) La información a los usuarios de que están interactuando con un sistema de inteligencia artificial. Dicha información incluye la revelación exhaustiva acerca de las capacidades, grado de exactitud y limitaciones.

g) El ejercicio del derecho a la desactivación temporal de las funcionalidades de las Tecnologías de IA, cuando ellas incumplan con las características de seguridad mencionadas en las letras a) a g) anteriores, y la posibilidad de volver a un estado anterior que restaure las funcionalidades seguras.

4.4.3 Obligación de ausencia de sesgo y discriminación

Las Tecnologías de IA deben ser “imparciales” por lo que no deben discriminar por motivos de raza, sexo, orientación sexual, embarazo, discapacidad, características físicas o genéticas, edad, minoría nacional, origen étnico o social, lengua, religión o creencias, opiniones políticas o participación cívica, nacionalidad, estado civil o económico, educación o antecedentes penales.

Estas tecnologías pueden crear diversas formas de sesgo y discriminación automatizada y provocar un evidente perjuicio a las personas y a la sociedad. La propuesta de Reglamento recuerda que el “sesgo” puede originarse tanto en las decisiones basadas en un sistema automatizado o adoptadas por tal sistema, como en el conjunto de datos en los que se basan dichas tomas de decisiones o con los que se entrena el sistema. En pocas palabras, la Tecnología de IA “sesgada” es aquella que no arroja resultados óptimos para una determinada persona o grupo de personas, sobre la base de una percepción personal o social “prejuiciosa” y del posterior tratamiento de los datos relativos a sus características personales.

Se entiende que las Tecnologías de IA serán consideradas “discriminatorias” cuando produzcan resultados con unos efectos negativos desproporcionados que den lugar a un tratamiento diferente de una persona o grupo de personas, que las ponga incluso en una situación de desventaja en comparación con otras personas, sobre la base de motivos tales como sus características personales, sin una justificación objetiva o razonable e independientemente de cualquiera reivindicación de neutralidad de las tecnologías en cuestión.

Finalmente, la propuesta de Reglamento señala que solo podrá justificarse el “trato diferenciadoentre personas o grupo de personas cuando exista una finalidad objetiva, razonable y legítima que sea proporcionada y necesaria en la medida en que no exista otra alternativa que interfiera menos con el principio de igualdad de trato. Indica como objetivos o finalidades legítimas para justificar objetivamente cualquier diferencia de trato entre personas o grupo de personas los siguientes: la protección de la seguridad y la salud públicas, la prevención de infracción penales, la protección de los derechos y las libertades fundamentales, la representación equitativa y los requisitos objetivos para ejercer una profesión.

4.4.4 Obligación de responsabilidad social e igualdad de género

Las Tecnologías de IA no deben interferir en elecciones ni contribuir a la desinformación. Deben respetar los derechos de los trabajadores, promover una educación de calidad y la alfabetización digital, no aumentar la brecha de género y no vulnerar los derechos de propiedad intelectual.

4.4.5 Obligación de sostenibilidad ambiental

Se establece que las Tecnologías de IA deberán contribuir al progreso sostenible y no causar daños al medio ambiente durante su ciclo de vida ni a lo largo de toda su cadena de suministro. Por tanto, tales tecnologías deberán incorporar medidas para mitigar y remediar su impacto general en los recursos naturales, el consumo de energía, la producción de residuos, la huella de carbono, la emergencia climática y la degradación del medio ambiente, a fin de garantizar el cumplimiento de la aplicable normativa nacional e internacional en materia medioambiental.

4.4.6 Obligación de respeto a la intimidad y a la protección de datos

La propuesta señala que las Tecnologías de IA deben respetar los derechos fundamentales a la intimidad y a la protección de datos personales lo que implica respetar el RGPD y la Directiva sobre la privacidad y las comunicaciones electrónicas.

Las llamadas “tecnologías de reconocimiento remoto”, como el reconocimiento de las características biométricas y en particular el reconocimiento facial para identificar automáticamente a las personas, únicamente deben ser implementadas o utilizadas por las autoridades de los Estados miembros para fines de interés público esencial.

Cuando las autoridades utilizan estas tecnologías su uso debe hacerse siempre público, ser proporcionado y limitado a objetivos específicos y restringidos en el tiempo, además de estar restringidas a una ubicación concreta y estar sujetos a control judicial y a control democrático.

Se trata de evitar abusos graves como la vigilancia masiva, la actuación policial predictiva y las violaciones de derechos procesales.

4.5 Derecho de reparación

Se reconoce el derecho de toda persona física o jurídica de obtener una reparación por las lesiones o por los daños causados por el desarrollo, la implementación y el uso de las Tecnologías de IA de alto riesgo, cuando se infrinjan el Derecho de la UE y, particularmente, las obligaciones mencionadas en el apartado 4.4 de este artículo.

4.6 Evaluación de la conformidad

Se establece que las Tecnologías de IA de alto riesgo estarán sujetas a una evaluación de la conformidad con el fin de verificar el cumplimiento de las obligaciones antes mencionadas (apartado 4.4), así como sujetas a un seguimiento posterior. Dicha evaluación y seguimiento serán realizados por las autoridades nacionales de control designadas en cada Estado miembro, bajo la coordinación de la Comisión Europea o de cualquier entidad de la UE designada para tal efecto.

4.7 Certificado europeo de conformidad ética

Cuando la evaluación de la conformidad realizada fuera positiva, la autoridad nacional de control expedirá un certificado europeo de conformidad ética.

Por otro lado, los desarrolladores, implementadores o usuarios de Tecnologías de IA que no se consideren de alto riesgo podrán también solicitar voluntariamente que se certifique el cumplimiento de las obligaciones indicadas en el apartado 4.4 anterior y, en general, conformidad con la propuesta de Reglamento.

4.8 Gobernanza de la inteligencia artificial

Por “buena gobernanza” se entiende la manera de garantizar que los desarrolladores, los implementadores y los usuarios adoptan y cumplen unas normas y unos protocolos de conducta adecuados y razonables sobre la base de un conjunto formal de reglas, procedimientos y valores que les permiten tratar adecuadamente las cuestiones éticas que se planteen.

Entre las normas de gobernanza que las Tecnologías de IA deben respetar se mencionan las Directrices éticas para una inteligencia artificial fiable, elaboradas por el Grupo de expertos de alto nivel sobre inteligencia artificial creado por la Comisión Europea, así como las normas técnicas adoptadas por el Comité Europeo de Normalización (CEN), el Comité Europeo de Normalización Electrotécnica (CENELEC) y el Instituto Europeo de Normas de Telecomunicaciones (ETSI), a escala europea, y por la Organización Internacional de Normalización (ISO) y el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), a escala internacional.

En cuanto a la gobernanza de los datos se dispone que los desarrolladores e implementadores de Tecnologías de IA efectúen controles de calidad de las fuentes externas de los datos utilizados por estas tecnologías y establezcan mecanismos de supervisión para su recopilación, almacenamiento, tratamiento y uso. Para ello deberán definir los requisitos para el tratamiento y la concesión de acceso a los datos utilizados o producidos por dichas tecnologías, así como la finalidad, el ámbito de aplicación, los destinatarios del tratamiento y el acceso a dichos datos, todos los cuales podrán ser objeto de auditoría y trazabilidad.

4.9 Autoridades nacionales de control

Cada Estado miembro de la UE deberá designar una autoridad administrativa independiente encargada de controlar la aplicación del futuro Reglamento (UE) del Parlamento Europeo y del Consejo sobre los principios éticos para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas.

Dicha autoridad, por tanto, será la encargada de realizar la evaluación de riesgos, la evaluación de la conformidad y de expedir el certificado europeo de conformidad ético a los que antes nos hemos referido.

5. Valoración

Las cuestiones de carácter ético y jurídico relacionadas con la inteligencia artificial deben abordarse en la UE a través de un marco regulador efectivo, global y con visión de futuro donde se tenga en cuenta los intereses de todos actores involucrados y la necesidad de promover la innovación.

Deberá reflejar, en todo caso, los principios y valores de la UE consagrados en los tratados y velar por el respeto de los derechos fundamentales. Hay que evitar el exceso de regulación y no olvidar que es importante y necesario dotar de seguridad jurídica tanto a las empresas como a los ciudadanos.


Algoritmo Legal es una firma de abogados especializada en el asesoramiento legal de proyectos y negocios que utilizan algoritmos de inteligencia artificial, big data y tecnologías conexas. Realizamos auditoría legal y evaluaciones de impacto algorítmica con el fin de garantizar la viabilidad legal de los modelos de negocio que usen tales tecnologías. Te ayudamos a realizar tu actividad empresarial con seguridad jurídica. Defendemos ante los tribunales de justicia a personas que vean afectados sus derechos fundamentales por el uso de dichas tecnologías.
Ofrecemos además asesoría jurídica especializada en derecho societario, contratación mercantil, venture capital y capital riesgo a startups e inversores de proyectos tecnológicos.
Para más información puedes contactarnos aquí.
Inteligencia artificial y marco ético europeo
5 (100%) 1 vote[s]

Licencia de Creative Commons

Artículo bajo licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

 

"NO REPRODUZCAS SIN CITAR LA FUENTE"

Estimado lector: dispones del permiso del titular de Algoritmo Legal y del autor de este artículo para reproducir todo o una parte del mismo siempre que cites la fuente de origen. Simplemente indica lo siguiente:

 

Ricardo Oliva León. Inteligencia artificial y marco ético europeo [online]. Algoritmo Legal. 09/01/2021. https://www.algoritmolegal.com/tecnologias-disruptivas/inteligencia-artificial-y-marco-etico-europeo/. Consulta: [indicar la fecha en que has consultado el artículo]

 

Ricardo Oliva León

Abogado y socio director de Algoritmo Legal. Especializado en Derecho de las nuevas tecnologías y Derecho mercantil. Imparte clases en cursos de postgrado, escribe y habla sobre las cuestiones jurídicas que plantean internet, la inteligencia artificial, la blockchain, los pactos de socios, las startups y la legaltech. Su cuenta de Twitter es @RicarditoOliva y su email es ricardo@algoritmolegal.com

También te podría gustar...

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con asterisco.

Apariciones en Medios

Thomson Reuters El País Europa Press Wolters Kluwer Cadena Ser La Vanguardia Cinco Días Lawyerpress Law & Trends Confilegal Lefebvre Heraldo de Aragón El Peruano Criptonoticias 20 minutos
error: Este contenido está protegido.
×