Estás aquí
Home > Derechos digitales > El nuevo Derecho Digital y los problemas de discriminación

El nuevo Derecho Digital y los problemas de discriminación

Miguel Rodríguez-Piñero Royo

Catedrático de Derecho del Trabajo y de la Seguridad Social

Universidad de Sevilla

Secretario General

Universidad Internacional de Andalucía

Nos encontramos en mitad de un proceso de construcción de un Derecho Digital del Trabajo, que supone tanto la regulación del impacto de la digitalización en el trabajo, como la ordenación de las distintas formas de trabajo digital. Esta nueva rama supone una confluencia de ordenamientos, el Derecho del Trabajo y el Derecho de la Protección de Datos, y por ello en su seno se produce una verdadera guerra cultural entre ambas ramas, cada una de las cuales tiene su lógica y sus mecanismos.

Esta construcción se produce en el contexto de un cambio de tendencia en el Derecho del Trabajo Digital, que en la tercera década del siglo vuelve a fijarse como prioridad la tutela de los trabajadores. Y en un momento en el que los ordenamientos laborales han acusado el impacto de la experiencia COVID.

Existe una preocupación por cómo afecta la transformación digital a los derechos de los ciudadanos. La Declaración Europea sobre los Derechos y Principios Digitales para la Década Digital (en adelante DEDPDDD) afirma la necesidad de que la transformación digital se aborde de manera plenamente conforme con los derechos fundamentales, puesto que las personas constituyen el núcleo de la transformación digital de la Unión Europea. En España la Carta de los Derechos Digitales (CDD) establece que los derechos y libertades fundamentales son aplicables en los entornos digitales., quedando obligado el legislador a impulsar las medidas necesarias para que las leyes puedan concretar, en cuanto sea necesario, las especificidades de los derechos en el entorno digital. Más concretamente, “se promoverá que en los procesos de transformación digital, el desarrollo y el uso de la tecnología digital, así como cualquier proceso de investigación científica y técnica relacionado con ellos o que los utilice instrumentalmente, se tenga presente la exigencia de garantizar la dignidad humana, los derechos fundamentales, la no discriminación, el libre desarrollo de la personalidad y orientarse al logro del bien común.”

En este proceso se produce la aparición de una nueva categoría la de los “derechos digitales”, unos de última generación, propios de un entorno digital y reconocidos de manera multinivel. El más universal y desarrollado normativamente es el derecho a la protección de datos, de amplio espectro. También hay otros específicamente laborales, como el derecho a la desconexión digital o las garantías frente al poder de control del empleador (revisión de dispositivos digitales; sistemas de geolocalización; dispositivos de videovigilancia; controles biométricos); los derechos de acceso individual o colectivo; los derechos vinculados a la transformación digital (formación, información, recolocación); los relacionados con la formación (alfabetización y cualificación digital).

Dentro de los derechos digitales, la igualdad y no discriminación ha recibido una especial atención, lo que es comprensible, por la relevancia de estos derechos, como un aspecto central de nuestra cultura jurídica; y también, sobre todo, por el temor al impacto de la digitalización en un aspecto tan básico de la dignidad humana.

La ya citada DEDPDDD establece que la vía de la Unión para la transformación digital de nuestras sociedades y nuestra economía debe abarcar, entre otros, la igualdad. La CDD afirma en su apartado VIII que “el derecho y el principio a la igualdad inherente a las personas será aplicable en los entornos digitales, incluyendo la no discriminación y la no exclusión”.

La tecnología puede ser una causa de discriminación, lo que nos lleva a dos situaciones diferentes, la brecha digital y la discriminación algorítmica.

Según Eurostat, la brecha digital hace referencia a la «distinción entre aquellos que tienen acceso a Internet y pueden hacer uso de los nuevos servicios ofrecidos por la World Wide Web, y aquellos que están excluidos de estos servicios».

La Resolución 68/167 del Consejo de Derechos Humanos de la Asamblea General de Naciones Unidas sobre promoción, protección y disfrute de los derechos humanos en Internet  expresa “su preocupación por la persistencia en muchas formas de la brecha digital entre los países y dentro de ellos y entre hombres y mujeres y niños y niñas”.

Esta brecha presenta varios tipos, distinguiéndose una brecha de acceso (las posibilidades que tienen las personas de acceder a internet), una brecha de uso (la falta de competencias digitales que impide usar la tecnología), y una brecha de calidad de uso (ausencia de los conocimientos necesarios para sacarle el mayor partido posible).

La brecha digital tiene otro efecto discriminatorio, en la medida en que tiene un impacto desproporcionado por colectivos, según factores tales como el género, la edad, la capacitación digital, la discapacidad física o psicológica, la renta o la localización geográfica.

Son numerosos los textos sobre derechos digitales que lo reconocen: la CDD dispone que “se fomentará y facilitará el acceso de todos los colectivos a los entornos digitales y su uso y la capacitación para el mismo”, y que “se promoverán políticas públicas específicas dirigidas a abordar las brechas de acceso atendiendo a posibles sesgos discriminatorios basados en las diferencias existentes por franjas de edad, nivel de autonomía, grado de capacitación digital o cualquier otra circunstancia personal o social. La DEDPDDD, por su parte, señala que toda persona debería tener acceso a una conectividad digital asequible y de alta velocidad; y derecho a la educación, la formación y el aprendizaje permanente, pudiendo adquirir todas las capacidades digitales básicas y avanzadas.

A partir de estos textos podemos identificar los instrumentos fundamentales para luchar contra la brecha digital, comenzando por la alfabetización digital, el proceso de aprendizaje que permite a una persona adquirir competencias para entender y aprovechar el potencial educativo, económico y social de las nuevas tecnologías. Y continuando con la garantía de la conectividad, que implica un acceso universal, que debe ser de calidad, accesible e igualitario; el derecho a la identidad digital; la neutralidad de la red y exclusión de bloqueos; la neutralidad tecnológica; y la interoperabilidad, entre otros factores.

El segundo aspecto a considerar es la discriminación algorítmica, consecuencia de los sesgos del algoritmo en las decisiones que toma. Este impacto sesgado puede ser consecuencia, a su vez, de sesgos de los o del propio programa. La IA aparece cada vez más como un tercer sujeto en las relaciones laborales, que aunque no es ajena al empleador actúa con autonomía frente a él.

Según Sáez Lara, la dificultad para afrontar este fenómeno se debe a una pluralidad de razones: la invisibilidad de esta forma de discriminación; su extensión e intensidad.; su complejidad técnica; y su autoridad matemática. A ello se une que la identificación de responsabilidades puede diluirse, tanto por la idea de que no se participa en la decisión porque ésta es automática, como por la pretendida objetividad de la decisión automatizada, y por la dificultad de asignar responsabilidades entre el diseñador de la herramienta y la entidad que la aplica.

Son muchas las normativas nacionales e internacionales que afrontan este riesgo, y en ellas encontramos unos mismos instrumentos, que podemos considerar a estas alturas muy elaborados y consolidades: transparencia; explicabilidad; rendición de cuentas o “responsabilidad algorítmica”; accesibilidad; evaluación de impacto; gestión de riesgos; y obligaciones de precisión, solidez y ciberseguridad. El RGPD impone una intervención humana en las decisiones basadas en procesos automatizadas (incluida la elaboración de perfiles) que determinen consecuencias o efectos jurídicos sobre las personas.

La Agencia Europea de los Derechos Fundamentales ha elaborado propuestas de protección de los derechos fundamentales en el desarrollo y uso de algoritmos que deben ser atendidas. Esto implica transparencia sobre el proceso de elaboración de los algoritmos, para desarrollar estas herramientas y permitir detectar y, por tanto, rectificar cualquier error en su aplicación; evaluación del impacto de los derechos fundamentales, para identificar posibles sesgos y abusos en la aplicación y en los resultados obtenidos por los algoritmos; y una medición del “potencial de discriminación”, en relación con motivos diferentes, como género, edad, etnia, religión, orientación sexual y política. Transparencia y evaluación deben de verificarse tanto sobre la calidad de los datos, como sobre la forma en que funcionan los algoritmos (caja negra) y las facultades predictivas de los mismos.

En el ámbito laboral la Agencia Española de Protección de Datos admite la utilización de estas herramientas en la selección de personal con una serie de salvaguardas: que se prevea algún mecanismo de intervención humana significativa si la persona afectada así lo solicita; que exista algún cauce para que esta persona exprese su opinión e impugne la decisión; que se garantice el derecho a recibir una explicación de la decisión tomada después;  que se realice una evaluación de impacto en el diseño e implementación del algoritmo.

Existe una propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial (COM/2021/206 final), la conocida como “Ley De Inteligencia Artificial”, enumera en su Anexo III los “sistemas de IA de alto riesgo” previstos en el apartado 2º de su artículo 6, entre los que se incluyen los destinados a utilizarse ”para la contratación o selección de personas físicas, especialmente para anunciar puestos vacantes, clasificar y filtrar solicitudes o evaluar a candidatos en el transcurso de entrevistas o pruebas”. Esta calificación como sistema de alto riesgo impone un paquete de obligaciones a los proveedores y usuarios de la herramienta algorítmica: entre otras cosas, una evaluación de la conformidad realizada por un organismo independiente; un sistema de gestión de riesgos; prácticas adecuadas de gobernanza y gestión de datos; elaboración de documentación técnica; capacidades de registro; transparencia y comunicación de información a los usuarios; vigilancia humana; y obligaciones de precisión, solidez y ciberseguridad.

Desde otro punto de vista, la tecnología puede ser también un instrumento de discriminación, lo que nos lleva al concepto de “discriminación digital”, que según una definición proporcionada por UNESCO supone “toda expresión y acción discriminatoria realizada a través de medios digitales”. Para esta entidad, “las redes sociales constituyen, en este sentido, las plataformas preferidas por quienes quieren crear y difundir contenidos discriminatorios”.

Este tipo de prácticas se relaciona directamente con los distintos tipos de acoso, y en el ámbito laboral en particular se vincula sobre todo con el acoso sexual. En realidad podemos encontrar multitud de prácticas: acoso sexual y discriminatorio; mobbing; conductas antisindicales…

A primera vista, estas conductas resultan fácil de ubicar en el Derecho del Trabajo, mediante la noción de acoso, que nos lleva a una conducta ilícita y a la aplicación de medidas reparadoras. En la práctica, sin embargo, la cuestión puede ser más complicada, ya que algunas de estas conductas pueden encontrar amparo (o al menos, buscarlo) en derechos laborales tales como la libertad de expresión, las medidas de conflicto colectivo y la libertad sindical, en su vertiente de dar a conocer opiniones e informaciones de interés para los trabajadores. La lucha contra el acoso digital puede resultar por ello difícil, cuando supone confrontar los derechos de la persona afectada con los de otros sujetos.

Finalmente, no podríamos terminar estas reflexiones sin indicar la potencial utilidad de la tecnología como mecanismo de lucha contra la discriminación. Desde el punto de vista de los colectivos discriminados, la digitalización ha incrementado su capacidad de integración social y laboral: cuando afrontan dificultades objetivas de acceso al mercado de trabajo y a los empleos, el teletrabajo y las plataformas incrementan las oportunidades laborales; los soportes digitales y las redes sociales constituyen un canal muy efectivo para dar visibilidad a grupos y culturas, generando espacios propios para grupos determinados. Las redes sociales sirven también para canalizar las denuncias y el apoyo mutuo. Por ello es muy común el activismo on line de organizaciones y colectivos.

Como ejemplo, el Consejo de Derechos Humanos de la Asamblea general de Naciones Unidas “exhorta a todos los Estados a que acaben con la brecha digital entre los géneros y mejoren el uso de la tecnología instrumental, en particular la tecnología de la información y las comunicaciones, para promover el empoderamiento de las mujeres y las niñas”.

Por otra parte, las tecnologías digitales se convierten en instrumentos para los responsables de la tutela antidiscriminatoria, mediante canales electrónicos de denuncia, portales de información sobre derechos, y la identificación de tratos discriminatorios mediante la utilización del Big data.

******************************************

El presente artículo se basa en la intervención de su autor en el Congreso Internacional “Discriminación y Nuevas Realidades Económicas, Tecnológicas y Sociales”, celebrado en Sevilla los días 15 y 16 de marzo de 2022, y organizado por el proyecto FEDER18-1264479 “Nuevas Causas y Perfiles de Discriminación e Instrumentos para la Tutela Antidiscriminatoria en el Nuevo Contexto Tecnológico Social”. En el portal del Grupo de Investigación PAIDI SEJ-322, “Trabajo, persona, Derecho, mercado”, pueden encontrarse los materiales de este encuentro y otros resultados de los sucesivos proyectos desarrollados por el grupo; accesible en https://grupo.us.es/iwpr/

Se señala que las consideraciones contenidas en la presente intervención son fruto exclusivo del pensamiento del autor y no tienen en algún modo carácter vinculante para la administración de pertenencia (necesidad 3).

Dicho texto ha sido previamente publicado en Noticias CIELO

Comparte en Redes Sociales:
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin
Print this page
Print

Deja un comentario

Top