Estás aquí
Home > Algoritmos > Algoritmos Y Discriminación

Algoritmos Y Discriminación

MARÍA JOSÉ ASQUERINO LAMPARERO

Universidad de Sevilla

1.  INTRODUCCIÓN

Partiendo de la clarificación de conceptos tales como algoritmo, inteligencia artificial y big data se pretende analizar la afectación sobre un derecho concreto: el de no discriminación.

Estas herramientas características de la nueva Edad que estamos viviendo son instrumentos valiosísimos para cualquiera de los ámbitos sociales en los que nos desenvolvemos, y, por ende, también para el mundo de las relaciones laborales. No obstante, el empleo que se haga de ellos puede tener efectos perniciosos para la persona y afectar a derechos tales como el de su protección de datos, su salud, integridad física, dignidad y, por supuesto, al derecho de igualdad.

La circunstancia de que los algoritmos no sean transparentes y que, por lo tanto, sea complicado desentrañar el criterio que se ha empleado para diseñar aquellos, facilita las inmisiones y lesiones a derechos fundamentales de las personas.

Descendamos al terreno de las relaciones laborales. Los algoritmos se pueden emplear en fases precontractuales y durante la vida o ejecución del contrato. Pensemos en la siguiente situación: una empresa (y, en este sentido es indiferente sus dimensiones) precisa cubrir un puesto de trabajo, para lo que abre un proceso de selección. Las posibilidades que le brindan los algoritmos y la inteligencia artificial no son nimias; conseguirá en un lapso relativamente breve valorar no solo innumerables currículos, sino también cada dato que conste en la documentación que reciba.

Una vez contratado, las utilidades de la inteligencia artificial no desaparecen, pues puede ser el instrumento más útil para controlar los tiempos de trabajo, cómo se está ejecutando la labor contratada (lo que, a su vez, puede tener efectos en la percepción de determinados complementos salariales) y, en definitiva, para tomar decisiones que afectan a la pervivencia del vínculo laboral que van más allá de los incumplimientos laborales (así, para examinar la concurrencia de las causas jurídicamente habilitantes para proceder a despidos objetivos por ineptitud sobrevenida o por causas económicas, técnicas y organizativas de la propia empresa).

Pero en el empleo de estos sistemas por parte de la empresa -y en este sentido no ha de pensarse únicamente en las plataformas digitales- se corre un riesgo en el que querríamos poner nuestra atención: la discriminación por la forma en la que se tratan los datos. La lesión al derecho a la igualdad puede facilitarse por la introducción de sesgos antidiscriminatorios2 que resultan harto complicado de ser vislumbrados a priori y, también difíciles de constatar una vez se ha producido su conculcación.

Pero, y aunque nuestra mirada se ha focalizado en el ámbito laboral, los que redactamos estas líneas no debemos ser tan ingenuos como para pensar que los efectos de la inteligencia artificial, y específicamente de los algoritmos, se ciñen al escenario de las relaciones laborales, siendo tan solo una preocupación (y ocupación) de la doctrina laboralista3 o propia del ámbito nacional o incluso europeo.

Y en toda esta revolución tecnológica hay que poner el acento en el cada vez más sencillo acceso a un mundo que antes se reservaba únicamente a los especialistas matemáticos (en cada una de las vertientes) y que hoy está disponible para prácticamente cualquier sujeto por muy rudimentarios que sean los conocimientos informáticos que este (o nosotros) tenga/mos.

De igual forma, esta -si se nos permite- “democratización” del empleo de estos sistemas (específicamente los algorítmicos) ha sido posible gracias a una disminución significativa de los gastos de adquisición de instrumentos informáticos de todo tipo, sin olvidar los que suponen la conexión móvil. Por supuesto, no podemos dejar de apuntar que el verdadero catalizador para que esta revolución se produzca (la revolución de los números) no es otra más que la que nos ofrece la conectividad a través de internet, de la que es difícil (por no decir imposible) escapar y que, de otro lado -y aunque suene redundante-, se ha abierto también a todas las personas, casi con independencia de su edad y, por supuesto, de otros condicionantes sociales-económicos.

La universalidad subjetiva de los sistemas impulsados por la tecnología no nos hace entonar un canto de satisfacción por lo conseguido. Pues, a pesar de todo, no podemos olvidar que existe una brecha digital tremendamente significativa que tiene una serie de consecuencias en absoluto desdeñables. Simplificando: quien se queda fuera del universo virtual corre el riesgo (si se nos permite esta licencia) de ser expulsado de la realidad que viviremos en un futuro no muy lejano.

De otro lado, la consideración de que nos encontramos ante un entorno fuertemente globalizado (y con una clara proyección intensificadora de este fenómeno) no hace más que contribuir a la expansión en la utilización de estas tecnologías que facilitan el despliegue de las actividades económicas4.

2.  UNA APROXIMACIÓN CONCEPTUAL

La necesidad de escindir los conceptos que a continuación pretendemos definir, aun cuando sea en línea de aproximación, ha sido destacada por la doctrina ocupada en el estudio de distintos saberes jurídicos 5.

2.1 Concepto de big data

La doctrina ha puesto de manifiesto que los datos son la fuente de mayor riqueza que existe hoy en día6. Datos que servirán, si son correctamente manejados, para discernir nuestros hábitos de consumo, desde los más cotidianos o diarios a aquellos que se refieren a cuestiones tan trascendentales como la salud, pasando por aquellos otros que aun cuando sean superficiales, también nos definen como consumidores7.

En una primera aproximación, el término, parece remitirnos a la idea de (traducimos tosca y literalmente) “grandes datos”. La necesidad humana de recabar datos, de obtener y procesar información no es característica propia del ser humano del siglo XXI. Desde el comienzo de los tiempos hemos sentido esa llamada. Lo que sí, lógicamente, ha cambiado sustancialmente ha sido tanto la forma a través de la cual obtenemos la información como la manera en que la procesamos8.

Es, precisamente en este punto, cuando introducimos el término de big data o si castellanizamos la expresión, el de macrodatos. Y así, aunque existan antecedentes remotos que nos hacen remontarnos hasta la Segunda Guerra Mundial y, concretamente, a Alan Turing y su proyecto para descifrar el Código Enigma, habremos de esperar a 1989 para que, con la generalización de internet, se abra la senda del big data o lo que es lo mismo la generación masiva de los datos9.

De la propia literalidad del término (big data) ya se pueden extraer parte de sus características. Se trata, en primer lugar, de datos en cantidades ingentes; es tal su cuantía que es imposible (al menos con la capacidad humana actual) procesar o clasificar la información suministrada. A la nota anterior hay que añadirle la circunstancia de que esos datos son variados; se refieren a aspectos variopintos de la realidad y acaso por ello, han de proceder de diferentes fuentes de información.

Estos datos se transmiten (tercer carácter) velozmente y esa velocidad es la que propicia internet, instrumento sin el cual no podríamos comprender los macrodatos que cambian vertiginosamente. La volatilidad de los datos nos remite, a su vez, a la idea de la permanente actualización de la información. Precisamente esa agilidad consigue que la información no sea obsoleta10 y pueda, por ello, ser útil.

Siendo estas sus características intrínsecas, realmente lo sorprendente es que esos datos por sí mismos nada aportan, pero su combinación, el aprovechamiento a partir de su almacenamiento sí llega a ofrecer a aquel que los interpreta una fuente de conocimiento valiosísima, máxime cuando la información que suministran los datos (y aquí se encuentra la mayor debilidad y a la par su máxima fortaleza) puede servir para, incluso, predecir conductas futuras.

En definitiva, aunque los datos almacenados sean en cantidad ingente lo cierto es que aisladamente nada aportan. Por supuesto, los datos son la materia prima del conocimiento; precisamente por esta razón, se hace necesario su tratamiento, así como su análisis y este proceso de interrelación está también presente en el concepto de big data. De esta forma, la actuación primera que hay que acometer es desechar la información que nada aporta para seleccionar la que sí es capaz de generar un conocimiento efectivo y relevante. Esta es la función de la “minería de datos11 que, aplicada al mundo de las relaciones laborales puede ser muy útil para conocer cuáles son los candidatos más idóneos para desempeñar un puesto de trabajo concreto (selección de personal), establecer graduaciones entre los trabajadores que tienen encomendadas las mismas tareas profesionales (evaluación del desempeño), examinar pormenorizadamente los niveles de absentismo de un colectivo o de particulares trabajadores y, en definitiva, de inferir, a partir del manejo de los datos, qué tipo de reacción empresarial se desencadenará a la vista de la información resultante.

Junto a ello tienen la virtualidad de conseguir, en función del patrón dominante observado en el trabajador (o del candidato), cuál será su respuesta futura ante determinadas situaciones y órdenes empresariales, lo que -a su vez- es susceptible de condicionar las decisiones de la empresa tanto en el momento de su contratación, como para conceder incentivos o desplegar la facultad sancionadora, llegando a su máxima expresión que, como es sabido, es el despido y todas estas actuaciones que vienen refrendadas por los datos, por los algoritmos; en definitiva por la máquina que alimentada por esos patrones alcanza conclusiones, dando lugar así a la denominada inteligencia artificial.

Así pues se observa cómo el big data no se circunscribe a una faceta concreta de las relaciones laborales. Por el contrario -y tal como ha sido puesto de manifiesto por nuestra doctrina científica- afecta “antes incluso de que haya contrato” y esa “dimensión transversal12 supone que irradie sus efectos no solo a la dimensión netamente individual del contrato de trabajo, sino también a la colectiva abarcando incluso aspectos relativos a la Seguridad Social13.

Pero esta aspiración de utilización de los macrodatos para interpretar conductas y predecirlas ya había sido observada con cautela por parte del Consejo de Europa que, preocupado por procurar el máximo respeto a los derechos humanos, y acaso especialmente a la dignidad, adoptó el 28 de enero de 1981 el Convenio para la protección de las personas con respecto al tratamiento automatizado de datos de carácter personal (Convenio 108) y que más tarde (18 de mayo de 2018) sería revisado para su actualización, siendo esta última versión la que precisamente introduce las tres “V” que servirán para calificar el big data (velocidad, volumen y variedad, términos estos a los que hemos aludido al principio del presente).

En definitiva, siguiendo a Molina Navarrete, “big data es el sueño de Sherlock Holmes14 que persigue “la optimización de los riesgos económicos y jurídicos”.

2.2.  Concepto de algoritmo

Si acudimos a la Carta Ética Europea sobre el uso de la Inteligencia Artificial en los sistemas judiciales y su entorno de 4 de diciembre de 201815, el algoritmo queda definido en el glosario como “una secuencia finita de reglas formales (operaciones e instrucciones lógicas) que permiten obtener un resultado de la entrada inicial de información. Esta secuencia puede ser parte de un proceso de ejecución automatizado y aprovechar modelos diseñados a través del aprendizaje automático16.

Aunque hayamos destacado este concepto por integrar todos los requisitos de partida con los que contamos para la elaboración del presente, ciertamente existen otros conceptos elaborados por nuestra doctrina científica dignos de ser tenidos en consideración17.

Vayamos atrás y centremos nuestra mirada en el aprendizaje a través del algoritmo. Ese aprender (en el sentido más clásico del término, esto es, sin abarcar cualidades que -al menos hoy por hoy- son netamente humanas y que formarían parte del aprendizaje emocional e incluso de la adquisición de competencias) no es uniforme, no es el mismo en todos los supuestos. Conscientes de la complejidad del proceso de aprendizaje, la literatura científica ha escindido entre sus diferentes tipos. Así, nos encontramos ante el aprendizaje automático18, el denominado aprendizaje profundo y también el aprendizaje de refuerzo.

El aprendizaje profundo19 es más “peligroso”20 que el simple aprendizaje automático, por cuanto si el sistema es autónomo para establecer las relaciones de conexión entre los datos y ofrecer (esto es lo verdaderamente inquietante) una pauta sobre lo que el individuo va a hacer en el futuro (esto es, predice el futuro), las posibilidades son inmensas. De un lado, porque la persona cuando ofrece sus datos (o son recopilados estos porque, sin saberlo ha prestado consentimiento a su cesión desconociendo, por el imbricado lenguaje empleado o por pereza mental, si se quiere, para qué son destinados) no se detiene (no nos detenemos) a pensar que esos datos son los que nos definirán (con exclusión de otros), proyectarán una imagen de nosotros mismos y, volvemos a lo peligroso, ofrecerán un patrón de nuestra conducta de futuro.21

A pesar de ello, creemos que aplicadas las consideraciones anteriores al mundo de las relaciones laborales, es -desde el punto de vista empresarial- una legítima aspiración el contar con estos algoritmos predictivos (o sistemas de aprendizaje profundo22), por lo que la solución en la práctica no puede venir dada por cercenar su uso, sino por la implantación de cautelas a fin de que este sea respetuoso con los derechos humanos y, particularmente, con el derecho al que atendemos nuestra mirada: el relativo a la no discriminación.

El, por ahora, último nivel de aprendizaje si continuamos con la exposición doctrinal23, es el aprendizaje por refuerzo que permite la obtención de “la mejor decisión sobre un conjunto de variables y opciones24, incluyendo por tanto una valoración.

Llegados a este punto, es relevante traer a la memoria la diferencia -resaltada por nuestra doctrina25– entre los dos tipos de algoritmos existentes. De un lado tenemos los “algoritmos de arriba-abajo” y los “algoritmos de abajo-arriba”; en el primer caso, el ser humano controla el algoritmo permanentemente en todas sus secuencias; en el segundo caso -los verdaderamente revolucionarios- “los programadores crean meta-algoritmos que son capaces de crear algoritmos que, cuando detectan un error, ellos mismos se corrigen”.

2.3.  Concepto de inteligencia artificial

Este es, de todos los conceptos que empleamos, el más dúctil. Se trata de una expresión que, lejos de permanecer inmutable, va a ir sufriendo los embates del tiempo, en parte porque desconocemos sus reales posibilidades de proyección futura y, también, por cuanto el propio concepto de inteligencia (artificial o no) ha experimentado alteraciones en orden a la determinación de su comprensión y alcance26.

No obstante, de entre todas las posibilidades27 acudiremos a la Carta Ética Europea sobre el uso de la Inteligencia Artificial en los sistemas judiciales y su entorno de 4 de diciembre de 2018. La inteligencia artificial queda definida por el “conjunto de métodos, teorías y técnicas científicas cuyo objetivo es reproducir, mediante una máquina, las habilidades cognitivas de los seres humanos28.

Ante ello, la inteligencia artificial engloba el “aprendizaje automático, razonamiento, programación y robótica29, entendiendo que ese aprendizaje automático incluye tanto el aprendizaje profundo30 como el de refuerzo y junto a ello el denominado “razonamiento automático, incluidas la planificación, la programación, la representación del conocimiento y el razonamiento, la búsqueda y la optimización31 y todos estos procesos han de estas presididos por los principios de “proporcionalidad e inocuidad, seguridad y protección, equidad y no discriminación, sostenibilidad, derecho a la intimidad y protección de datos, supervisión y decisión humanas, transparencia y explicabilidad, sensibilización y educación, responsabilidad y rendición de cuentas, gobernanza y colaboración adaptativas y de múltiples partes interesadas32.

Si descendemos a la realidad cotidiana, seamos más o menos conscientes de ello, son múltiples los ejemplos cotidianos del uso de la inteligencia artificial33, considerándose inteligencia artificial los programas informáticos34 que empleamos, siendo la clave de esta, la adaptabilidad continua.

De esta manera, nutrida de datos, la inteligencia artificial podrá “aprender y descubrir incluso relaciones sutiles” entre estos35.

3.  EUROPA ANTE LOS ALGORITMOS

Los usos y la virtualidad de los algoritmos en las diferentes dimensiones de la realidad humana36 han procurado su atención mundial, lo que a su vez ha propiciado el diálogo entre los diferentes países del globo para ahondar en su conocimiento, proyección y posibilidades37.

La UE entiende que el empleo de los algoritmos lejos de resultar perjudicial en concreto para las relaciones laborales, puede entrañar una serie de ventajas en absoluto desdeñables. Ventajas estas que comenzando en el acceso más igualitario al trabajo, pasan por una mejora cualitativa de la salud laboral y, por supuesto, de las condiciones laborales en general. A pesar de esas repercusiones positivas38, no desconoce los riesgos de diversa índole que existen39 y la necesidad específica de garantizar el respeto a los derechos humanos.

En clave europea, nos encontramos -aún en fase de propuesta- con una norma que versa sobre la inteligencia artificial a nivel europeo, en la que se dedica especial atención a su vertiente ética. Se trata de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial y se modifican determinados actos legislativos de la Unión de fecha 21 de abril de 2021 y que, a partir de este momento, enunciaremos genéricamente con la expresión simplificada de Ley de Inteligencia Artificial.

Esta norma parece mostrarse especialmente preocupada por las posibilidades que entrañan los sistemas de inteligencia artificial, y dada la probabilidad de que determinados usos encierren un encubierto pero real ataque a valores connaturales al ser humano, procede a prohibir determinadas prácticas40.

Esa preocupación, también le lleva a calificar a determinados sistemas como de alto riesgo y, tras las consideraciones que menciona en el art.641, realiza una enumeración a través del Anexo III de los concretos sistemas que quedan englobados bajo esta categorización42. Tras ellos, nos encontramos con las denominadas “obligaciones de transparencia para determinados sistemas de IA”, básicamente, pueden inducir en confusión al usuario o desconocimiento sobre la información que se está extrayendo43.

Por último, cuando los sistemas no quedan englobados en ninguno de los apartados anteriores, se recoge una serie de normas de conducta aplicables a ellos44.

Examinados cada uno de los preceptos sobre esta clasificación, la doctrina45 pone de manifiesto que si nos centramos en el sistema de relaciones laborales la mayor parte de los usos en torno a los sistemas de inteligencia artificial son de riesgo alto46, sobre los que gravitan ciertas obligaciones que afectan a distintos intervinientes. Estos mandatos nos recuerdan a las normas que sobre seguridad y salud se plantean en el ámbito de la prevención de riesgos laborales, siendo predicables tanto sobre los proveedores47 como sobre los usuarios48.

Y, tras la lectura de esta Ley de Inteligencia Artificial, aparecen las críticas. De un lado, por no haberse garantizado la presencia de los representantes de los trabajadores (dimensión colectiva en atención al control de estos sistemas) y de otro por no haber contemplado una serie de medidas específicas en el ámbito laboral49.

Otra de las preocupaciones presentes en el ámbito europeo es la oscuridad bajo la cual se nos presentan los sistemas algorítmicos. Atendiendo a esta inquietud, el Consejo de Europa ha adoptado cinco máximas que deben inspirar su utilización y que se encuentran contempladas en la Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno50. De esta forma, se destaca el principio de respeto de los derechos fundamentales, el de no discriminación, el relativo a la calidad y seguridad, el de transparencia51 y, por último, el atinente al control del usuario52 .

El Consejo Económico y Social Europeo tampoco es ajeno al avance imparable de la inteligencia artificial, mostrándose preocupado porque los nuevos sistemas no anulen la voluntad y porque se garantice que la decisión final recaiga en todo caso sobre el ser humano53.

Pero, y aunque en primera instancia queríamos recoger el esfuerzo llevado a cabo por entes internacionales -y particularmente entidades europeas- en torno a la digitalización, no podemos dejar de anotar la reflexión del profesor Goerlich, en torno a otro instrumento al que debemos hacer referencia: el Acuerdo Marco europeo sobre digitalización, alcanzado por los interlocutores sociales CES, Business Europe, SME United, y CEEP, así como por EUROCADRES/CEC)54. Partiendo de que “la tecnología representa un desafío y una amenaza para ambas partes contractuales” (específicamente trabajador y empresario) no podemos olvidar cómo el proceso de digitalización y el nivel de implantación de esta no es homogéneo en todos los estados -ni siquiera en los europeos-. Esa idiosincrasia de las naciones también ha de ser tenida en cuenta a la hora de diseñar un marco normativo55 y enlaza con la idea anterior de que la futura Ley de Inteligencia Artificial no puede descender a detalles concretos, sino tan solo esbozar un marco común.

Un aspecto a destacar que nos parece relevante (acaso de suma obviedad para el lector paciente): toda esta amalgama de normas pone de manifiesto cómo el uso consciente, medido y respetuoso de la inteligencia artificial (y todo lo que detrás de ella existe) es una preocupación europea. Los sistemas empleados son universales y los problemas que se plantean también.

4.  EL DERECHO DEL TRABAJO ESPAÑOL ANTE LOS ALGORITMOS

Aun cuando carecemos, por el momento, de una norma legal que de forma interna aborde el empleo de la inteligencia artificial56, sí que existe toda una amalgama de instrumentos normativos que pueden -deben- ser tenidos en cuenta cuando acudimos a los algoritmos para desplegar el haz de facultades empresariales que conforman el poder de dirección.

Situados concretamente en el Derecho del Trabajo, y teniendo en cuenta la afirmación que lleva a Molina Navarrete a afirmar que “todo lo interesante que está pasando en las relaciones laborales está fuera del Estatuto de los Trabajadores57, no podemos pasar por alto que la norma básica laboral no ha sido ajena a la irrupción de los algoritmos y de ello da cuenta el actual art.64.d)58 que recoge el derecho de los representantes de los trabajadores a “Ser informado(s) por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles59.

De otro lado, no se observa una preocupación generalizada por parte de la negociación colectiva a abordar aspectos relacionados con la implantación de los algoritmos, habiendo tan solo encontrado seis convenios colectivos en los que se aborda de forma más o menos tangencial esta cuestión60.

Merece la pena destacar, porque denota una preocupación en torno a su abordaje y por la exhaustividad en su tratamiento, el tratamiento que se realiza por parte de la Agencia Española de Protección de Datos sobre big data, a través de un código de buenas prácticas que tampoco se olvida de los algoritmos con la atención focalizada en el ser humano61.

Una última reflexión a modo de cierre del presente epígrafe. Si intentamos trascender por un momento y situarnos en el plano de la elucubración teórica para acercarnos a una conclusión que nos permita valorar en qué medida afectará al mundo del trabajo la automatización intensificada, se observa cómo no es posible entablar un debate totalmente desprovisto de consideraciones éticas o morales, que nos influirán a adoptar conclusiones pesimistas62 o, justamente las contrarias63. De cualquier forma, también se señala que todas las ocupaciones laborales no resultarán afectadas en igual medida, existiendo determinadas profesiones más susceptibles que otras en las que los humanos podemos ser reemplazados con mayor facilidad64.

5. UNA SUCINTA REFERENCIA A LA NORMATIVA ANTIDISCRIMINATORIA

Dado que hasta la fecha carecemos de postulados legales directos que incidan en la proscripción del derecho a la no discriminación cuando se emplean los algoritmos, se hace necesario rescatar la normativa que con carácter general contempla el derecho a la no discriminación para tratar de casar esta con el empleo de los distintos mecanismos algorítmicos, especialmente en las relaciones laborales.

Nada originales somos cuando destacamos, en lo que hace a nuestro arsenal normativo, al art.14 CE como plasmación de la dignidad humana. Recordar también que esa proclamación de igualdad se desprende del art.35 CE.

Otros textos que merecen ser tenidos en consideración vienen dados por la Ley 62/2003, de 30 de diciembre, de medidas fiscales, administrativas y del orden social65 y la Ley Orgánica 3/2007 para la igualdad efectiva de mujeres y hombres 66 y referencias a los algoritmos, y la necesidad de que estos no sean discriminatorios, también nos las encontramos en textos como el Real Decreto 1069/2021, de 4 de diciembre67.

En la dimensión legal, y apegados al terreno laboral, acudimos a los artículos 4.2.c) y, por supuesto, el art. 17.1, ambos del Estatuto de los Trabajadores; la propia Ley de Empleo68 (aun con las acertadas críticas por parte de la doctrina iuslaboralista) y la Ley de Infracción y Sanciones del Orden Social69 que representa la reacción normativa a los comportamientos transgresores.

Por supuesto, la Unión Europea no ha permanecido ajena al problema que la desigualdad representa. Para lograr el objetivo de proscripción de la discriminación, existen directivas que específicamente promueven la igualdad racial (Directiva 2000/43/CE)70, la igualdad de trato en el empleo (Directiva 2000/78/CE), la de hombres y mujeres (2006/54/CE)71, igualdad de trato entre hombres y mujeres en el acceso a bienes y servicios (2004/113/CE), gravitando sobre la base de la distinción entre la forma de discriminación directa o indirecta72.

Temprana, contundente y coherente en las distintas Directivas antes enunciadas se nos definen las dos formas de discriminación: directa e indirecta. De esta manera, se apreciará discriminación indirecta cuando una disposición, criterio o práctica aparentemente neutros pueda ocasionar una desventaja particular a personas con una religión o convicción, discapacidad, edad, orientación sexual, origen racial o étnico concreto respecto de otras personas, sin que exista una justificación objetiva, pues no hay una finalidad legítima. Todo ello, a salvo de que los medios para la consecución de esta finalidad sean adecuados y necesarios73, para lo cual resulta de utilidad comprobar si existen otros caminos viables que incidan en menor medida en la máxima de la igualdad de trato.

Por el contrario, en la discriminación directa una persona es tratada desfavorablemente en atención a su sexo, género, edad, raza, etnia, religión o creencia, salud, discapacidad u orientación sexual.

6.  ALGORITMOS, BIG DATA E INTELIGENCIA ARTIFICIAL ANTE LAS RELACIONES LABORALES

La revolución tecnológica, la importancia de big data, de los algoritmos, de la inteligencia artificial traída al mundo del trabajo74 nos sorprende a los que venimos de otra época en la que las ideas antes referidas se podían leer o ver en novelas y películas de ciencia ficción. No obstante, hagamos nuestra la pregunta de Molina Navarrete: realmente este nuevo mundo laboral ¿es tan diferente del anterior? Concretamente, ¿el empresario se mueve en la actualidad impulsado por otros intereses? Este autor compara estas nuevas técnicas y no puede más que concluir que el objetivo al que se dirigen estas no es más que lograr la rentabilidad de los recursos humanos, a través -eso sí- de fórmulas más depuradas, para seleccionar a los mejores candidatos, retener a los más cualificados talentos y procurar la salida de aquellos empleados que aportan menor valor añadido75.

Ciertamente, nos encontramos ante un nuevo sistema de gestión de recursos humanos que probablemente nos impulse a hablar de un nuevo modelo de relaciones laborales que se ha visto, de otro lado, propulsado por la crisis sanitaria desencadena por la COVID-1976 y que -aparte de las manifestaciones trascendentales que hemos tratado de indicar en el párrafo anterior- también tiene su proyección en aspectos tales como la asignación a puestos de trabajo77, planteando nuevos problemas que merecen reflexiones detenidas para tratar de alcanzar las mejores soluciones dentro de las alternativas posibles que es, de otro lado, lo que pretenden los propios algoritmos.

El problema no estriba en el uso de nuevas técnicas -en concreto de los algoritmos- para ser más eficientes en el plano de la gestión de los recursos humanos, sino en el riesgo que tenemos como humanos de pervertir estos sistemas algorítmicos, de tal forma que aparezcan los temidos sesgos o, por seguir en esta ocasión a nuestra RAE, “errores sistemáticos en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras”. La aparición de estos sesgos, con el sentido antes indicado, se incrementa cuanto más sean los datos que maneja el algoritmo y las soluciones posibles también se multiplican en atención a la cantidad de información que se suministra.

La aplicación de los algoritmos a las relaciones laborales es una realidad y la contemplación de estos debe realizarse -a nuestro juicio- teniendo en cuenta que hemos de desechar la idea de que las máquinas no discriminan78.

Téngase en cuenta que aunque nuestra mirada se proyecta hacia el mundo del trabajo, los algoritmos tejen su tela, expandiéndose al sector público a fin de examinar conductas, predecir también perfiles que son más susceptibles de cometer fraudes y, también para ofrecer retratos robots susceptibles de ser los candidatos ideales para la obtención de determinadas prestaciones públicas79.

En cualquier caso, uno de los derechos que puede resultar seriamente comprometido es el de no discriminación. Tan es así que incluso se ha introducido una expresión específica cuando este derecho lo conculca un algoritmo: “discriminación algorítmica80 que es “la que se produce cuando un individuo o colectivo recibe un tratamiento arbitrario como consecuencia de la toma de decisiones automatizadas81 y “Ello ocurre porque el aire que respiran los algoritmos, los datos, puede encontrarse viciado por lo que las decisiones automatizadas resultantes se encontrarán, igualmente, corrompidas82.

Téngase presente que aunque nos centremos en el ámbito laboral, la conculcación al derecho a la igualdad puede producirse en diferentes órdenes jurídicos83.

7.  PROCESOS DE SELECCIÓN, ALGORITMOS Y DISCRIMINACIÓN

Una de las funciones que tradicionalmente se viene atribuyendo al departamento de recursos humanos es la relativa al reclutamiento 84, la selección de aquel candidato que se acerca más y mejor a los ideales empresariales. Para llevar a cabo esta misión, en la actualidad, las personas encargadas de ese proceso tienen a su disposición multitud de información sobre los pretendientes a trabajador que, desde luego, trasciende a la que estos puedan verter en sus currículos. Las mismas consideraciones se pueden exportar a las agencias de colocación al realizar funciones de intermediación laboral85.

Así, el personal encargado de seleccionar a un candidato puede completar la información que este le suministra acudiendo a otras fuentes que también sirven, directa o indirectamente86, para vender nuestra fuerza laboral y que no siempre se circunscriben a la dimensión netamente profesional pero que pueden resultar relevantes a la hora de escoger a un trabajador87.

En la medida en que la información se multiplica exponencialmente y no se halla condensada en un único surtidor, el responsable de llevar a cabo el proceso de cobertura de la vacante se puede sentir abrumado, entre otras razones porque los datos sean inmanejables e imposibles de procesar por nuestro cerebro limitado.

La solución, no obstante, es sencilla. Aprovechemos las ventajas que nos ofrecen los algoritmos para ordenar la información, procesarla, desechar aquella que no es interesante a los fines pretendidos y una vez obtenida la que es relevante, contrastarla obteniendo así -por vía de comparación- al mejor candidato posible de todos los que se han postulado -directa o indirectamente- a ese proceso de selección.

De esta manera, si el humano define el perfil requerido para un puesto de trabajo (qué cualidades se precisan, qué tipo de aptitudes se requieren), los algoritmos harán el resto. Esto es, podrá, en función de los parámetros que le ofrezcamos, decidir cuál es el trabajador idóneo88.

Presentada así esta idea puede llegarse a la conclusión inicial de que el proceso de toma de decisiones a través de algoritmos es el más adecuado. Contempla toda la información de todos los candidatos y objetivamente selecciona el “mejor”. No se corren riesgos de que las personas encargadas del proceso puedan verse influidas por prejuicios, ideas preconcebidas o sensaciones que, actuando a modo de intuiciones, desencadenen una decisión con tintes espurios. En definitiva, se cercena el riesgo de la discriminación desde ya antes del inicio de la relación laboral. Pero, ¿esta inicial aseveración resiste un análisis más pausado?

¿Carece de sesgos nuestra afirmación?

Lamentablemente la conclusión es errónea89 y para fundamentar esta manifestación -sin perjuicio de que podamos aspirar a que en el futuro los algoritmos nos puedan ofrecer una respuesta ecuánime a los problemas que se nos planteen- acudimos nuevamente a nuestra doctrina más especializada que ha puesto de relieve que determinadas plataformas que han hecho descansar sus procesos selectivos en los algoritmos, a la postre, excluyen a determinadas personas de la posibilidad de acceder a la oferta de empleo90 en atención a datos que en sí mismos no son censurables pero que tienen -una vez se analizan- un impacto discriminatorio que no puede soslayarse ( v.gr., las conclusiones que se pueden alcanzar en atención al lugar en el que se encuentra la residencia del candidato91 ). En ocasiones, el sistema algorítmico se presenta como defectuoso y, al no reconocer una concreta información, acaba por expulsar del mercado laboral a determinadas personas92 .

No siempre es sencillo detectar el momento en que se produce la lesión al derecho a no ser discriminado. La selección a trabajador no es instantánea, sino que lo habitual es que tras hacerse pública la vacante y los requisitos que a priori el candidato ha de cumplir, se lleve a cabo -tras la recepción de las candidaturas- la criba entre estas y posteriormente la entrevista de selección de los finalistas, sin descartarse que previamente se hayan materializado otras técnicas, incluso grupales que sirven a modo de preselección. Ninguna de estas fases está exenta de valoraciones personales por parte de los reclutadores y, por lo tanto, en ninguna de ellas se puede descartar que determinados pretendientes hayan sido expulsados del proceso por motivos discriminatorios93. Lamentablemente esta situación se complica más porque este estadio precontractual no ha sido contemplado expresamente por la normativa, ni por la negociación colectiva, existe escasa intervención de Inspección de Trabajo y no hay pronunciamientos judiciales dictados en esta fase94.

Todas estas dificultades se tornan mayores cuando nos hallamos ante procesos para cubrir vacantes en las empresas privadas95.

Pero, centremos, a partir de este momento, nuestra atención en los procesos de selección que llevan a cabo las empresas auxiliándose de los algoritmos y amparadas por el principio de libertad de empresa. Desde este momento, esto es cuando la entidad acude a sistemas algorítmicos para afrontar los procesos de selección96, se encuentra con una nueva obligación que es la que se señala en el joven art.64.4.d) del Estatuto de los Trabajadores y, así, en atención a lo que en él se dispone, se establece una obligación de información a los representantes de los trabajadores.

Una vez se alcanza la decisión de acudir a los sistemas antes indicados para la búsqueda de candidatos, se abre -siguiendo a Serrano Falcón97– la segunda de las fases denominada “búsqueda de candidatos” y, en ese momento, esa búsqueda se podrá realizar a través de fórmulas variopintas que van desde la propia página web de la entidad, hasta acudir a otros portales de empleo o redes sociales y por supuesto al Servicio Público de Empleo98, sin descartar la acción pull que permite que sea la propia empresa la que capte posibles candidatos.

Ya desde ese instante sería posible que aparecieran los sesgos discriminatorios -desde la concepción y configuración de las ofertas de empleo99– pues “La tecnología parece capaz de inferir ciertas características personales basadas en otros datos100 y aunque esto parece más sofisticado, lo cierto es que la aparición de los sesgos puede proceder de la propia concepción del algoritmo, por cuanto que este se construya a base de parámetros que ya, en sí mismos considerados, son discriminatorios en la medida en que repliquen modelos anteriores que están viciados de este mismo problema101.

Tanto una como otra fórmula de aparición del sesgo es facilitada por programas o herramientas que se pueden emplear para rentabilizar los recursos cuando se pone en marcha un proceso de selección102 y que, incluso, pueden llegar a analizar las emociones de los candidatos a través de sus expresiones faciales103, así como las “características físicas y psicológicas tales como el origen étnico, emociones y bienestar104; de otro lado, el candidato corre el riesgo de quedar fuera de los procesos por cuestiones que sí podría salvar la presencia humana, tales como el tono de voz105 o incluso no emplear la palabra exacta que está buscando ese sistema algorítmico.

Y, en toda esta suerte algorítmica, nos encontramos con otros obstáculos que son insalvables. Detectados los sesgos -y, como se puede intuir esta detección no es ni mucho menos obvia- no siempre es posible su corrección humana106.

Si tratamos de descender algo más, Eguiluz Castañeira, J107 recogiendo los trabajos expuestos por Barocas y Selbst, junto con Zuiderveen, señala que la discriminación con relación a las “decisiones automatizadas” pueden provenir de “a) la «variable objetivo» y la definición de las «etiquetas de clase»”. En esta forma, la discriminación proviene de no tener más que en consideración los valores que la empresa entienden capacita a un candidato frente a otro, sin tener en consideración otros factores que pesan sobre determinados colectivos y que les dificultan la consecución de esas “etiquetas” que diseña la empresa108. “b) datos de entrenamiento: ejemplos de etiquetado”, refiriéndose al aprendizaje del sistema algorítmico que si se basa en datos que ya de por sí presentan sesgos discriminatorios, los resultados obtenidos repetirán ese patrón discriminatorio, para lo cual es bastante ilustrativo el ejemplo que indica sobre el proceso de selección llevado a cabo por Amazon y cómo este incurría en discriminación por razón de género, toda vez que el sistema, valorando los datos que tenía introducidos en los que el personal contratado para puestos técnicos era masculino, entendía que el perfil óptimo para cubrir esas vacantes eran candidatos varones. “c) recopilación de datos de entrenamiento”. Se hace alusión a la procedencia de datos. Si existe menos información sobre un determinado colectivo (fuera cual fuere este) la información que obtenemos del manejo de datos también está sesgada y puede excluir a personas que están en menor medida representadas. “d) selección de características”. Toda vez que las características definitorias de una persona -y de un trabajador- pueden ser heterogéneas y difíciles de cubrir en su totalidad, habrá que elegir entre todas las cualidades y aptitudes (haciendo referencia ahora únicamente al plano laboral y, acaso, en concreto al momento de la selección de los candidatos) cuáles son las más y mejor valoradas. El ejemplo que en esta ocasión se nos dispensa nos habla de discriminación de los colectivos más vulnerables que no pueden permitirse estudios impartidos por entidades privadas, por lo que si el criterio de selección fuera este (el de haber cursado la formación en una institución que no sea pública), también se provocaría discriminación; “y e) variables de aproximación (Proxy)” o cómo un dato aparentemente neutral se convierte en discriminatorio por derivación. El dato por sí mismo no es discriminatorio, pero las consecuencias que se anudan del mismo sí pueden resultarlo. Siendo estas las formas de discriminación involuntaria, también hace referencia a la posibilidad de que la discriminación sea consciente y querida.

El problema que aquí se trata de plantear (que los sistemas algorítmicos son susceptibles de llevar a cabo decisiones discriminatorias) no es un peligro local ni del que sea ajena la Administración.

Así, descendiendo a supuestos reales, vemos cómo la decisión del algoritmo del servicio público de empleo austríaco fue tildada de discriminatoria. Allí se había utilizado un algoritmo que clasificaba a la población desempleada en atención a la probabilidad que tenía de encontrar un trabajo. El objetivo de este sistema (denominado PAMAS) era loable, por cuanto aspiraba a realizar un reparto eficiente de los recursos. Los problemas, no obstante, surgieron cuando, en esa clasificación de las personas, se descontaban puntos a las personas que se hallaban en situaciones concretas (por ejemplo, eran mujeres o extranjeros no nacionales de países de la Unión Europea), lo que suponía la catalogación de la persona como sujeto con baja probabilidad de obtener un empleo109 y la consecuencia de tal encasillamiento era que los servicios públicos destinaran sus esfuerzos a otro grupo de personas, a las que se les catalogaba con una probabilidad media para encontrar una oportunidad laboral.

Quizás la experiencia anterior pueda ser de utilidad para un modelo como el nuestro que pretende crear (Estrategia España 2050110) una plataforma para la búsqueda de empleo nacional (con vistas a una proyección futura de expandirse a los empleos de la UE) en donde confluyan demandantes y oferentes de colocación, sin distingos en función de su naturaleza pública o privada.

Con las reflexiones anteriores no pretendemos postular a favor de cercenar el derecho -también constitucionalmente consagrado- de libertad de empresa, sino que acaso se ha de meditar sobre la conveniencia, puesta de manifiesto por nuestra doctrina científica, de introducir mecanismos e instrumentos que velen por el cumplimiento de los derechos que toda persona tiene a ser tratada en condiciones de igualdad en un proceso de selección111.

Desde nuestro punto de vista, los peligros son -desde el punto de vista cualitativo- los mismos con y sin algoritmos. Esto es, en los procesos de selección que pudiéramos calificar como tradicionales también se descubren datos personales que informan sobre características ajenas a la dimensión laboral y que también son susceptibles de ocasionar un trato discriminatorio por parte del humano-seleccionador. Los currículos a la antigua usanza no se limitan a ofrecer datos netamente profesionales; las entrevistas a los candidatos no se ciñen únicamente a esta dimensión o esfera no personal.

De hecho, los algoritmos funcionan a base de datos previos. Si los que se introducen a los fines de elegir al candidato más apto de todos cuantos se presenten se hacen en atención a una experiencia previa y esta era la que teníamos antes de que se extendieran los modelos automatizados, por lo que los datos incluidos pertenecen a esa era más analógica, y son estos los que son susceptibles de ocasionar lesiones a los derechos, y particularmente al derecho a no ser discriminado.

El problema que, a nuestros ojos, aquí se plantea con los nuevos medios son los en absoluto menores relativos al reconocimiento de la discriminación. La dificultad que entraña (por su opacidad) conocer cuándo se ha producido una decisión sesgada112.

Así pues, más allá de que no exista un derecho digital a ser tratado en condiciones de igualdad a la hora de acceder al empleo, el problema estriba -a nuestro juicio- que carecemos de un cuerpo normativo que con independencia de cuál sea el medio empleado para seleccionar a candidatos, garantice el derecho de toda persona a ser tratado en condiciones de igualdad a la hora de acceder al empleo. Por supuesto, no podemos desconocer las potencialidades de las “máquinas” y cómo estas son capaces hasta, incluso, de interpretar nuestras emociones, siendo estos datos especialmente sensibles o si se quiere -para emplear la dicción de la Ley de Inteligencia Artificial (Propuesta de Reglamento)- “sistemas de IA de alto riesgo” y que merecen por tanto el cuidado más sutil de todos, pues su tratamiento ya no es que afecte al derecho a la no discriminación sino a la propia dignidad humana.

Otra de las afectaciones apreciadas por nuestra doctrina iuslaboralista en atención a lo que supone la irrupción de los algoritmos es sobre el derecho a mentir. Ciertamente es esta una opción que puede ejercitar libremente un candidato a un puesto de trabajo, cuando en el proceso de selección los reclutadores interfieren, a través de sus preguntas, en la esfera más íntima y privada del sujeto. Estas posibilidades que tiene el pretendiente se minimizan en los supuestos en que los procesos de selección se realicen a través de algoritmos, pues estos son capaces de detectar la “mentira”, combinando distintos datos que, aun cuando autónomos, dan como resultado afirmaciones o negaciones sobre ámbitos particulares del individuo. En estos casos, las contestaciones a las preguntas directas que tratan de indagar en la esfera privada carecen de relevancia y se obtiene la respuesta real de la combinación de otras contestaciones que pueden incluso presentarse como asépticas, si se consideran de forma independiente pero que, en su conjunto, ofrecen la idea que sobre el individuo se quiere obtener.

Y siendo ello así, y aun cuando los algoritmos se empleen en la fase más inicial del proceso de selección para descartar el torrente de candidatos y quedarse únicamente con unos preelegidos, el fantasma de la discriminación sobrevuela sobre cada uno de los descartes, sin que se consiga que la intervención humana al final del proceso para decidir quién es el afortunado trabajador pueda subsanar el daño anteriormente producido. Aquí, la garantía de intervención humana no consigue enmendar los daños anteriores que el diseñador ha propiciado.

En definitiva, y a modo de cierre, especial cuidado con los sistemas de inteligencia artificial declarados de alto riesgo (Anexo III del Reglamento europeo de inteligencia artificial) no solo estrictamente laborales sino también aquellos otros que, teniendo en consideración al ser humano en su faceta más personal, pueden también proyectarse en el campo de las relaciones laborales113.

8.  RELACIÓN LABORAL, ALGORITMOS Y DISCRIMINACIÓN

Ciertamente, el empleo de los algoritmos como instrumento para facilitar el desenvolvimiento de las relaciones laborales surgió focalizado en la fase previa a la contratación laboral, no obstante, en la actualidad veremos que se han expandido a todos los momentos del devenir contractual 114. Así, los algoritmos se muestran como herramientas valiosas para vigilar y controlar al trabajador115o evaluar el rendimiento (con las consecuencias que ello entraña) y, por supuesto, para desplegar las facultades disciplinarias empresariales.

Pero también cada una de estas aplicaciones puede comprometer el derecho a no ser discriminado. Descendamos, por ejemplo, a la vigilancia y control del trabajador116, con mayor o menor intensidad -en relación a la función concreta asumida por el empleado- se puede reconocer cuánto tiempo tarda en desempeñar una determinada tarea la persona y comparar este con el lapso que objetivamente se precisa para concluirla.

El problema surge cuando a pesar de que se pueda delimitar objetivamente el tiempo a emplear, la persona al llevar a cabo una actividad concreta se ve influida por otras circunstancias que tienen incidencia directa en la medición del tiempo. El algoritmo desconoce cuáles son los límites de nuestras capacidades -en función de factores como puedan ser los relativos a la salud o condición física, salud o incluso experiencia previa- por lo que las decisiones alcanzadas por no haber llegado al rendimiento máximo, sin tener en consideración esas otras circunstancias que nos humanizan, bien pueden resultar discriminatorias. Aún más, si el algoritmo es capaz de comparar los rendimientos entre diferentes trabajadores que ejercen la misma tarea (aun cuando no sea el mismo puesto de trabajo) también se podrán provocar situaciones discriminatorias. La homogeneidad en el tratamiento de los datos, desconociendo las circunstancias personales y particulares de cada trabajador no le hace precisamente un favor al principio de igualdad. Por último, la persona afectada por una decisión que se ha alcanzado por una “máquina” se presenta como neutra, carente de subjetividad, lo que hace despertar en el individuo al que le afecta un sentimiento de culpabilidad y aceptación.

Otro aspecto -en absoluto menor- viene constituido por el control de la jornada117. El registro de jornada a través de las posibilidades que nos dispensan los sistemas de control remoto también puede afectar al presente derecho118.

Una muestra la encontramos en la Sentencia de la Audiencia Nacional de 10 de mayo de 2021 (AS 2021/1257) en la que se observa que la falta de tratamiento específico de las pausas fisiológicas provoca discriminación indirecta por razón de la edad119.

Pero es que, si el algoritmo además no está diseñado para diferenciar, por ejemplo, entre las causas que han motivado las ausencias del trabajador y se dispensa un tratamiento uniforme a las mismas, también aquí de forma flagrante se comete discriminación. Esta es -aun simplificadamente expuesta por nuestra parte- la situación que el 31 de diciembre de 2020 del Tribunale Ordinario di Bologna tuvo que resolver, apreciando finalmente la discriminación denunciada120.

Por supuesto, extremadamente sensibles hemos de ser en el análisis de los diferentes enseres que los trabajadores portan y que sirven para controlar tanto su salud como la propia actividad laboral121.

Otro de los aspectos susceptibles de ser invadidos por los algoritmos -como antes anunciábamos- es el relativo a la evaluación del desempeño. La intensificación en el uso de la tecnología consigue que, a la postre, el trabajador se encuentre más controlado122 y, por ende, que se incremente la intensidad del elemento de dependencia o subordinación jurídica. Esta circunstancia entraña que finalmente si el rendimiento del trabajador -calculado objetivamente y sin tener en consideración otros factores que podrían explicar la actitud del empleado- ha disminuido por debajo de lo que se consideran como topes insalvables para la máquina, la decisión del empleador sobre la extinción del trabajador afectado se hace realidad123.

Pero sin llegar a los extremos de cercenar el vínculo, lo cierto es que los algoritmos también pueden resultar útiles para la determinación del salario, por lo que deberemos ser especialmente escrupulosos con el respeto de los derechos y, específicamente, con la máxima de la igualdad de remuneración por trabajo de igual valor124.

El problema que se plantea con los algoritmos específicamente enfocados en la materia de determinación de sistemas salariales es que son especialmente complejos, toda vez que “se basan a su vez en resultados de otros algoritmos125.

En sede de extinción, entendemos que los peligros que entrañan decisiones algorítmicas pueden ser soslayados -a diferencia de lo que ocurre en sede precontractual- con la intervención humana. Para otro debate dejamos la valoración -que incluso desde el punto de vista de la salud- puede provocar al trabajador el saberse constantemente evaluado, ya no solo por quien ejerce potestades de mando en su empresa sino por clientes de la empresa y nos centramos tan solo en los riesgos que entraña una respuesta automatizada desde el prisma del respeto al derecho a la no discriminación. Así, si la imposición de la sanción -sea cual fuera esta- es alcanzada por medios mecánicos, pero es en todo caso evaluada por un humano a través de un proceso de valoración que tenga en consideración variables que el algoritmo no ha podido (o no ha querido) tomar en cuenta, podremos calificar jurídicamente con mayor índice de acierto las conductas de los trabajadores.

Circunstancias ajenas a la dimensión netamente laboral pueden haber sido las desencadenantes de una actitud incumplidora del empleado y que, en todo caso, han de ponderarse para imponer la sanción final, logrando con ello que se ajuste al principio de proporcionalidad, principio este que ha de presidir toda actuación disciplinaria del empleador.

Habiéndonos centrado en los párrafos precedentes a las facultades sancionadoras del empresario -y, en especial, en el despido disciplinario- no se puede obviar que los algoritmos pueden ser útiles también para definir otras situaciones que son jurídicamente relevantes y, concretamente, para valorar cuál es el criterio de todos los posibles más acertado -desde un punto de vista empresarial- a fin de proceder a despidos objetivos o colectivos126 o para constatar el absentismo, la rotación del personal y bajo qué condiciones se produce o, incluso, la productividad de los equipos de trabajo con el objeto de determinar cuáles son los que alcanzan mayor rendimiento, sin tener que demorar a futuro su constatación.

Esa utilidad, no obstante, habrá de ser revisada y examinada a la luz de los derechos de los trabajadores, pues ya estemos en sede de extinción objetiva o de despido disciplinario, habrá que ser muy cautos con la admisión de decisiones que se proyectan no en atención a los datos presentes sino a los que de futuro el algoritmo prediga, esto es, con relación a los algoritmos predictivos. En definitiva, tenemos que aplicar las garantías destacadas por Molina Navarrete127 al analizar el art. 22 del Reglamento General de Protección de Datos, cuales son el de transparencia, el de precaución y el que postula el derecho a que la decisión final sea humana; siguiendo con este autor: “el algoritmo nunca podrá ser tu jefe”.

9.  A MODO DE RECAPITULACIÓN Y POSIBLES ALTERNATIVAS

Los números discriminan. Esta es una realidad de la que no podemos dudar. A partir de ahí se discute si estamos ante un tipo de discriminación diferente a la tradicional128que tiene implicaciones muy notables -aunque veces no tan claras- con el derecho a la libertad129.

En la actualidad nos encontramos ante un escenario en el que el pertenecer a determinados grupos sociales sí constituye una desventaja130 y, como -definitivamente- la información que se maneja a partir de los datos es ingente, el ulterior resultado de posible lesión a los derechos de las personas se multiplica exponencialmente, por cuanto se extiende a un mayor número de personas131. Esta realidad nos hace preguntarnos -siguiendo a Rivas Vallejo132– sobre el “origen del sesgo” para saber dónde -como humanos- debemos actuar para poder erradicar las consecuencias negativas que entraña para el derecho a la igualdad.

Volvamos de nuevo a los datos y, aunque parezca una obviedad, que existan macrodatos o big data presupone que detrás de ellos aparezcan una serie considerable de individuos que están dispuestos a verter esa información aunque sea de manera indirecta, esto es, para conseguir un fin (la instalación de una aplicación, v.gr.). Junto a ello, es también preciso que exista un espacio para su almacenaje y en este sentido la red, internet, es el espacio ideal sin fondo y límite de capacidad.

Por supuesto la intervención humana no se ciñe únicamente a introducir datos, sino que también será necesario que existan personas que sean capaces de analizar e interpretar esos datos. Y es aquí donde hay que introducir el matiz que lamentablemente agria el tono optimista bajo el cual hemos pretendido introducir estas líneas.

Así pues, es necesario que existan tanto sujetos que introduzcan datos como también otros que los interpreten. ¿En qué situación quedan los individuos que ya no es que no tengan habilidades para comprender la interacción de la información, sino que ni tan siquiera tienen la oportunidad de incluir datos atinentes a su persona? Insistimos en recordar que big data hace referencia a la información de cualquier cariz que rodea a la persona, pero si el individuo no tiene la oportunidad de verter estos datos ¿en qué posición se encuentra?

Esta realidad incide de manera significativa en lo que se ha venido denominando brecha digital, pues qué duda cabe que los sujetos que saben interpretar los datos “son los privilegiados de este nuevo mundo133, privilegio este que se manifestará, con suma probabilidad, en la consecución de empleos de mayor calidad: solo quien sabe interpretar los big data será capaz de discernir con total claridad qué derechos de la persona están en juego, apuntar sus posibles lesiones, así como arbitrar mecanismos que incidiendo sobre los datos eviten (o si se tiene una visión menos optimista) minimicen los efectos perniciosos que sobre estos derechos los datos, los algoritmos y la inteligencia artificial pueda provocar.

No obstante, lo más inquietante viene de la mano de ese núcleo de la población que en absoluto se relaciona con los datos, pues ni tan siquiera ofrece los mismos y esto tiene repercusiones mucho más serias de las que imaginábamos en un principio. Cierto es que los datos -y por supuesto los algoritmos y, en general, la inteligencia artificial- nos servirán para predecir conductas, pero también -y acaso esto ocurre en primer lugar- para reconocer los gustos de la persona navegante que con mayor o menor dosis de consciencia deja su rastro en la nube, e incluso para detectar situaciones que son más trascendentales y que se extienden desde el campo de la educación, al del trabajo o a la falta de ocupación.

Si existen individuos -que probablemente forman parte de un colectivo que tradicionalmente ha resultado ignorado- que están fuera de ese tráfico de datos, significa que los sistemas arbitrados en torno a los datos (insistimos, los algoritmos) no van a poder nutrirse de la información que requieren. Estos sujetos que ofrecen menos información (o ninguna) son más susceptibles de seguir sufriendo una situación de marginalidad y vulnerabilidad que, incluso nos atrevemos a afirmar, se verá acrecentada más allá de nuestras fronteras134.

Si esta última consideración la trasladamos al mundo del trabajo, no es descabellado pensar que estas personas vulnerables pueden encontrarse excluidas del mercado laboral, incluso antes de plantearse acceder al mismo. La carencia de datos sobre sus condiciones particulares y singulares provocará que queden al margen, puesto que si el sistema algorítmico deja de contener patrones (datos) sobre los mismos, este los rechazará automáticamente y sin contemplaciones.

Esta situación, en definitiva, fomenta las posibilidades discriminatorias tanto de forma directa como indirecta, pues es un dato incontestable que “big data y los algoritmos pueden heredar o reflejar perjuicios y patrones de exclusión o ser resultado de quienes han tomado decisiones anteriores135, de forma tal que corremos el riesgo de emular conductas discriminatorias pasadas, algunas de las cuales incluso habíamos ido superando como sociedad136.

Adviértase la peligrosidad que esta realidad entraña y que, por supuesto, trasciende de la esfera laboral a otra mucho más inquietante: la de la salud. Si introducimos una serie de datos que dejan fuera a un sector de la población, a fin de que -por ejemplo- el algoritmo establezca determinadas predicciones acerca de complicaciones posibles en los procesos patológicos o para analizar síntomas o tratamientos, esa parte de la población no formará parte de ese ensayo y, a la postre, no existirá una verdadera y eficaz respuesta médica universal.

De nuevo, en este punto, la doctrina iuslaboralista ha manifestado cómo el conocimiento del código fuente y en general el relativo a los datos, se muestran como herramientas valiosísimas para conocer si se ha producido la lesión al derecho a la no discriminación. El problema surge cuando se observa que existe una normativa (lógica también) de protección al meritado código fuente y a los datos, tutela esta que procura la imposibilidad de acceder al mismo porque forma parte de la propiedad del empresario137. Junto a ello, no se ha de olvidar que es más que probable que aun cuando pudiera garantizarse legalmente el acceso al mismo, este no sería de fácil entendimiento para los que somos legos en el lenguaje de la programación138. De cualquier manera, ese derecho al conocimiento exclusivo que tiene en este caso el empleador sobre los datos y/o el código fuente, es susceptible de ser limitado en el transcurso de un procedimiento judicial o administrativo, tal y como se prevé en la propia normativa de protección intelectual139.

Es decir que lo que sí se presenta como diáfano -al menos para nuestra doctrina laboral especializada- es el consenso de que a pesar de lo que pueda suponer de avanzada la modificación operada en el art.64 del Estatuto de los Trabajadores, la solución al problema no estriba en el conocimiento de “los parámetros, reglas e instrucciones en los que se basan los algoritmos” y ello no solo porque el lenguaje es ininteligible, sino también porque sobre los mismos pesan una serie de garantías, derechos de propiedad intelectual entre otros, que también son dignos de ser tenidos en consideración140.

La discriminación indirecta -en cualquier caso- es más difícil de observar y, en relación al algoritmo, la “disposición, práctica o criterio aparentemente neutro” vendría constituida por “la variable específica introducida en el sistema que, por el valor que le otorga este, genera un resultado discriminatorio para el grupo desaventajado, o bien el algoritmo generalmente considerado141.

Ante esta realidad, necesitamos explorar los canales para erradicar estos efectos perversos de los algoritmos; y, partiendo siempre de la responsabilidad empresarial 142, la doctrina plantea que: “Si son los derechos fundamentales y la dignidad de la persona humana los que están en el origen de la alerta sobre las tecnologías convergentes, será desde los derechos fundamentales -desde todos ellos incluido el de participación política- desde donde debamos reconstruir y articular las tecnologías convergentes con la sociedad del futuro143.

Téngase en cuenta que es muy difícil volver atrás. La tecnología “engancha”, genera dependencia, por lo que una vez implantados – específicamente- los nuevos sistemas de trabajo, no es fácil emprender el camino de vuelta. Acaso lo que en realidad subyace es una específica llamada a los agentes sociales para que velen por lo que aquí puede ocurrir: la gobernanza colectiva que, ineludiblemente, ha de ser precedida por una capacitación profesional para, a la postre, negociar el algoritmo144 como se está haciendo en Italia, teniendo presente -y para ello tenemos estudios autorizados- cuáles son las razones que nos llevan a discriminar145. Esta labor es preciso acometerla a través del despliegue de un trabajo interdisciplinar que implique no solo a los profesionales de la informática -o técnicos matemáticos- sino también a los juristas.

La llamada a los representantes de los trabajadores ha de tener un contenido concreto y claro, sin circunscribirse a la reproducción casi literal de lo que preceptúa la norma estatal, incluyendo la que indica el Reglamento General de Protección de Datos. De esta forma, se destaca el papel de la negociación colectiva como garante del derecho a la igualdad146.

Ahondando en la idea anterior de asunción de competencias específicas en esta materia de la representación de los trabajadores, otra sugerencia apuntada es la de tener en cuenta las previsiones contenidas en la Ley (propuesta de Reglamento) de Inteligencia Artificial. Ciertamente, el texto indicado no está diseñado específicamente para el ámbito de las relaciones laborales, pero un comienzo podría ser su lectura al objeto de extender las obligaciones que fueron diseñadas para proyectarse en la relación que se entabla entre usuario – empresario- y proveedor del algoritmo (o sistema de inteligencia artificial). Se trataría de hacer recaer en el empleador la obligación de informar sobre los mismos extremos que aparecen en la citada Ley de Inteligencia Artificial a los representantes de los trabajadores, consiguiendo así sistemas más transparentes.

Otra de las sugerencias proclamadas por nuestra doctrina más autorizada es la previsión de auditorías e incluso exigir que los sistemas algorítmicos, previamente a su empleo, tengan que ser visados y certificados por una autoridad pública que vele por la inexistencia de los sesgos, colocando por tanto a la Administración en garante de los derechos que, eventualmente, podrían resultar afectados.

Por supuesto, y aun cuando pueda tener lógicos detractores, otra de las opciones arbitradas a fin de lograr el respeto de determinados mínimos o si se quiere de asegurar comportamientos éticos y responsables en el manejo de los algoritmos, viene dada por las posibilidades que entraña la responsabilidad social empresarial147 .

Como se puede comprobar, ninguna de las opciones excluye al resto, por lo que bien podría tratarse más que de alternativas, de soluciones conjuntas. Lo que sí parece incontestable es la necesidad, también en este terreno, de la formación. Formación para los agentes sociales y por supuesto para las entidades, personas o sujetos que de forma más o menos directa se relacionan con los algoritmos. Aun cuando creemos un escenario jurídico provisto de garantías de toda índole, destinadas todas ellas a la procura del bien general y del respeto de derechos fundamentales, si los agentes que están en contacto directo con decisiones concretas y reales basadas en estos algoritmos no poseen los conocimientos especializados suficientes como para entender al menos de dónde puede provenir el ataque a los derechos humanos y comprender, siquiera indiciariamente, cómo funciona la inteligencia artificial y sus componentes, estamos seguros de que no se podrá garantizar exitosamente el cumplimiento de los límites infranqueables a las decisiones automatizadas.

Hemos tratado de analizar los riesgos que presentan los algoritmos en atención al respeto de los derechos fundamentales y, específicamente, del referido al derecho a no ser discriminado. Las posibilidades de que los algoritmos contengan sesgos que, en última instancia, segreguen a determinados colectivos o a específicas personas por supuesto es real, pero recordemos que “aunque es poco probable que un algoritmo de predicción sea perfecto en un mundo incierto, puede ser mucho menos imperfecto que el ruidoso y, a menudo, sesgado juicio humano148”.

De esta forma, la discriminación por estos nuevos sistemas algorítmicos “…obtiene, por el momento, respuestas desde nuestras actuales técnicas conceptuales [pero] requeriría probablemente también de nuevas herramientas jurídicas de análisis149, lo que supone la necesidad de poner el acento en la protección de datos, con especial incidencia en el principio de proporcionalidad y transparencia150, así como la evaluación del algoritmo151.

*********************************************

1 Trabajo realizado en el marco del Proyecto de Investigación Nuevas Causas y Perfiles de Discriminación e Instrumentos para la Tutela Antidiscriminatoria en el Nuevo Contexto Tecnológico Social (US-1264479).

2 RIVAS VALLEJO, P. (22 de junio de 2021). “Discriminación algorítmica en el trabajo” [Vídeo]- En AEDTSS,                              Sesión            II,             Algoritmos             y            discriminación            II.             Youtube. https://www.youtube.com/watch?v=2wcJCRbI0zs&ab_channel=AEDTSS

Manifiesta que “aunque el aprendizaje automático, por su propia naturaleza, siempre es una forma de discriminación estadística, la discriminación se vuelve objetable cuando coloca a ciertos grupos privilegiados en una ventaja sistemática y a ciertos grupos no privilegiados en desventaja sistemática”. De esta forma, el sesgo discriminatorio puede estar presente tanto en el “diseño” como en “el aprendizaje automático”, ya sea porque el “diseño no es inclusivo” o porque se produce la “absorción de patrones sociales (datos) y amplificación del sesgo” o bien porque aparece el sesgo “en los datos de entrenamiento, debido a que los prejuicios en las etiquetas o al muestreo insuficiente o excesivo, genera modelos con sesgo no deseado”.

3 Véase, a título de ejemplo, SORIANO ARNANZ, A.: “Decisiones automatizadas y discriminación: aproximación y propuestas generales”. Revista General de Derecho Administrativo núm. 56 (2021). Disponible en www.Iustel.com. 423439.

4 La retroalimentación es un elemento puesto de manifiesto por CRUZ VILLALÓN, J.: “Las transformaciones de las relaciones laborales ante la digitalización de la economía”. Temas Laborales, 2017, núm. 138, pp. 15-16.

5 HUERGO A. (16 de febrero 2021), “La regulación de los algoritmos”. [Vídeo]. Conversaciones online desde                        la             Fundación             Ramón             Areces.             Madrid.             Disponible             en https://www.youtube.com/watch?v=ZFFQ9rk46lA. RIVAS VALLEJO, P.: La aplicación de la Inteligencia Artificial del trabajo y su impacto discriminatorio. Ed. Thomson Reuters Aranzadi. 2020, pp. 457-468. La autora, de forma exhaustiva, glosa los conceptos empleados más allá de los que se refieren en estas líneas.

6 MERCADER UGUINA, J. R. (2021). “Discriminación algorítmica y derecho granular: nuevos retos para la igualdad en la era del big data”. LABOS Revista De Derecho Del Trabajo Y Protección Social, 2(2), p.4.https://doi.org/10.20318/labos.2021.6213. Este autor considera que la “inteligencia artificial, productos y servicios del “internet de las cosas”, sistemas autónomos y la tecnología 5G” conducen “a la consideración de los datos digitales como materia prima capital de la sociedad de la información y del conocimiento”.

7 RIVAS VALLEJO, P.: La aplicación de la Inteligencia Artificial del trabajo y su impacto discriminatorio, op.cit., p. 35.

8 Esta acumulación de datos da lugar a la denominada “minería de la realidad”: BELTRAN DE HEREDIA RUÍZ, I. -(10 de noviembre de 2021) “La irrupción de los algoritmos en el Derecho del Trabajo”. [Vídeo]. XXI Congreso ASNALA. La Irrupción de los Algoritmos en el Derecho del Trabajo – YouTube).

9 BELTRAN DE HEREDIA RUÍZ, I. “La irrupción de los algoritmos en el Derecho del Trabajo”. op.cit., destaca la idea de “más datos es mejor que mejores datos … Y esto ha planteado lo que ahora mismo podría ser la «caza del tesoro»”; lo que, a su vez, nos remite a la idea de “la economía de la vigilancia”.

10 Las ideas antes expresadas son reflejadas -asumiendo lo que resulta ya una asentada tesis- por PRECIADO DOMÉNECH, H.: “Algoritmos y discriminación en la relación laboral”, Jurisdicción Social, Revista de la Comisión de lo Social de Juezas y Jueces para la Democracia. Núm.223. Junio 2021. P. 7. “Es un clásico ya hablar de las «3 V» como característica propia de los Big Data”. Estas “V” se refieren al “volumen, velocidad y variedad”. “Algunos autores/as añaden 3 “V” más, correspondientes a la Veracidad, Variabilidad y Valor” (haciendo referencia a GIL GONZÁLEZ, E.: Big data, privacidad y protección de datos. Ed. BOE y AEPD. 2016. p. 21-24”).

En el mismo sentido ya se había expresado COTINO HUESO, L.: “Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales”. Dilemata núm.24. 2017. 131. Este autor refleja también que esta expresión de big data proviene del trabajo de Schönberger y Cukier (2013 a). En español se utiliza la expresión inglesa “big data”, también “macrodatos” (Parlamento Europeo, 2017) y no tanto la de “datos masivos”.

MOLINA NAVARRETE, C.: (1 de diciembre de 2020). “Big data y relaciones laborales” [Vídeo]. En La pandemia y la nueva Ley de Trabajo a Distancia: ¿una oportunidad para el teletrabajo?. MOLINA NAVARRETE, C. «Big data y relaciones laborales» – YouTube introduce un matiz en absoluto desdeñable: esos datos diversos y masivos han de ser manejados “al mismo tiempo”.

11 RIVAS VALLEJO, P., La aplicación de la Inteligencia Artificial del trabajo y su impacto discriminatorio, op.cit., p. 103. La autora acomete la definición de esta expresión: “Es el conjunto de técnicas y tecnologías que permiten explorar grandes bases de datos, de manera automática o semiautomática, con el objeto de encontrar patrones repetitivos, tendencias o reglas que expliquen el comportamiento de datos en un determinado contexto”.

12 MOLINA NAVARRETE, C. (8/septiembre/2020). “La gestión de Big Data en las Relaciones Laborales y de la Seguridad Social tras el COVID-19”. [vídeo] En AADTySS. Conferencia Internacional 8/09/2020. Conferencia Internacional 8/9/2020 -YouTube-.

MOLINA NAVARRETE, C.: “Economía de datos, mercados digitales de empleo y gestión analítica de personas: retos para la transición a una «sociedad del e-trabajo decente»”. Revista de Trabajo y Seguridad Social. CEF 459 (junio 2021), p. 9, se refiere a “todas y cada una de las fases de dirección, organización, control y disciplina del trabajo. Así, el reclutamiento y selección, la contratación, clasificación profesional y la promoción económica, la evaluación de los desempeños, el control del cumplimiento y la propia gestión extintiva”.

Incide en la idea de la transversalidad GOERLICH PESET, J.M: (6 de noviembre de 2021) VII Jornadas de Derecho Social de la Unión Europea [Vídeo]. En AEDTSS. VII Jornadas de Derecho Social de la Unión Europea (06/11/2020) – YouTube

Por su parte, SEMPERE NAVARRO, A.V.: “Un apunte sobre la grabación mediante cámaras (Al hilo de la STS-CIV 600/2019 de 7 noviembre)” Revista Aranzadi Doctrinal. núm. 2/2020 parte Jurisprudencia. Doctrina. BIB 2020\7801. Nos hace partícipes de la siguiente reflexión: “Si la información es poder, su tratamiento y control lo es en grado sumo. Los propios actores políticos confían crecientemente en algoritmos para adoptar estrategias o ganar elecciones; desde luego, las empresas los utilizan para procesos de asignación de tareas e incluso de selección de personal.”

13 Estas consideraciones no nos deben hacer olvidar las reflexiones de MOLINA NAVARRETE, C.; “La gestión de Big Data en las Relaciones Laborales y de la Seguridad Social tras el COVID-19”. [Vídeo], op.cit. Destaca el autor que los países -así, China- en los que el empleo de big data es significativamente superior con relación a otros no han experimentado una disminución en la demanda de empleo.

14 Siguiendo con este autor, MOLINA NAVARRETE, C.: “Economía de datos, mercados digitales de empleo y gestión analítica de personas: retos para la transición a una «sociedad del e-trabajo decente»”. op.cit., p. 5. Califica también a los datos como “nuevas minas de oro” reales del “rey Salomón”.

15 Adoptada por la Comisión Europea para la Eficiencia de la Justicia (CEPEJ) durante su 31 s t Reunión plenaria.

16 A la luz de este concepto de partida que es el empleado por la doctrina laboralista a fin de concretar qué es el algoritmo. Así, PRECIADO DOMÈNECH, C.H (5 de julio de 2021) [Vídeo]: “Algoritmos y discriminación en la relación laboral”. AEDTSS. Sesión II, Algoritmos y discriminación I – YouTube que introduce algún cambio fundamentalmente en lo que hace al orden de los vocablos empleados sin modificar sustancialmente el concepto plasmado por la citada Carta Ética. Véase también del mismo autor, “Algoritmos y discriminación en la relación laboral”, op.cit., p. 6.

De cualquier manera, como es imaginable, no existe un único concepto de algoritmo. A título de ejemplo, el algoritmo es una “secuencia de instrucciones, desarrollada por humanos, que se encarga de realizar tareas y encontrar soluciones de forma automatizada” (EGUILUZ CASTAÑEIRA, J.A.: “Desafíos y retos que plantean las decisiones automatizadas y los perfilados para los derechos fundamentales”. Estudios de Deusto. Revista de Derecho Público 68 (2), p. 330. Disponible en https://revista- estudios.revistas.deusto.es/article/view/1954/2418.)

También es oportuno recordar que la RAE lo define como “un conjunto ordenado y finito de operaciones que permite hallar la solución a un problema”.

MOLINA NAVARRETE, C.: “«Duelo al sol» (digital). ¿Un algoritmo controla mi trabajo? Sí; a tu empresa también”. Revista de Trabajo y Seguridad Social. CEF, 457 (abril 2021), p. 7. “el algoritmo es (sería) un orden lógico de procesos que, sobre la base de reglas finitas, predefinidas e inequívocas, permite automatizar una solución objetivada, eficaz y eficiente a un problema operativo”. De todas las definiciones

propuestas doctrinalmente, ponemos nuestra atención por su simplificación y acierto: “un algoritmo es una receta”. Contundente y fácil de comprender. Así se expresa MERCADER UGUINA, J. R.: “Algoritmos y derecho del trabajo”. Actualidad Jurídica Uría Menéndez, 52, 2019, p. 63.

Y, aunque en el presente nuestra mirada se va a dirigir a la respuesta automatizada y automática, recuérdese que tal y como indica BELTRAN DE HEREDIA RUÍZ, I.: “La irrupción de los algoritmos en el Derecho del Trabajo”, [Vídeo] op.cit. Para definir propiamente un algoritmo no se precisa que exista una máquina; expresivamente, ilustra que una receta de cocina también es un algoritmo.

17 Véase, SORIANO ARNANZ, A.: “Decisiones automatizadas y discriminación: aproximación y propuestas generales”. Revista General de Derecho Administrativo núm.56 (2021). op.cit. Define al algoritmo de manera muy esquemática: “un algoritmo constituye una serie de instrucciones dirigidas a la resolución de un problema paso a paso”.

18 SANCHO CAPARRINI, F.: (23 de septiembre de 2017). “Introducción al Aprendizaje Automático”. Fernando Sancho Caparrini (us.es) “Introducción al aprendizaje automático” que viene definido como la “rama de la Inteligencia Artificial que tiene como objetivo desarrollar técnicas que permitan a las computadoras aprender. De forma más concreta, se trata de crear algoritmos capaces de generalizar comportamientos y reconocer patrones a partir de una información suministrada en forma de ejemplos. Es, por lo tanto, un proceso de inducción del conocimiento, es decir, un método que permite obtener por generalización un enunciado general a partir de enunciados que describen casos particulares”.

19 RIVAS VALLEJO, P.: La aplicación de la Inteligencia Artificial al trabajo y su impacto discriminatorio, op.cit.,

  1. 107. “Los sistemas de aprendizaje profundo detectan las características ocultas en los datos, para perfeccionar su funcionamiento y sus resultados. Por ello se le denomina computación cognitiva”.

20 Ibídem. La peligrosidad de este tipo de aprendizaje viene dada cuando el algoritmo se transforma “en un poderoso predictor” por cuanto “La transparencia de su red neuronal virtual se va diluyendo, escapando incluso al conocimiento de sus diseñadores, que lo entrenaron precisamente para que pudiera aumentar de manera automatizada su profundidad de análisis sin necesidad de intervención humana”.

Por su parte, BELTRAN DE HEREDIA RUÍZ, I.: “La irrupción de los algoritmos en el Derecho del Trabajo”, op.cit. expone una inquietante verdad: los programadores de los algoritmos cuando estos desarrollan o ejecutan el aprendizaje profundo desconocen el camino que han empleado aquellos para llegar a una conclusión o decisión y “no se puede deshacer el camino” para intentar averiguar cómo se ha alcanzado ese resultado. Este autor pone de manifiesto otra aseveración inquietante: no se está intentando llegar a la mejor respuesta o solución solo “la mayor probabilidad posible”.

21 Reflexiones en torno a cómo la cesión de datos forma parte de lo cotidiano en nuestras vidas, en donde permanente asistimos a la “sugerencia” y “orientación en todas y cada una de nuestras elecciones y decisiones: desde el tiempo y el camino a seguir para llegar a nuestro destino, a los restaurantes o tiendas a las que ir, la ropa o los zapatos que comprar, los libros que adquirir o leer (electronic butler), pasando por las propuestas de qué películas ver o qué tipo de música, según nuestras elecciones previas, oír. Y todo ello sin olvidar, lo que a mi juicio resulta aún más preocupante, con qué personas contactar y, sobre todo, qué noticias leer o visualizar en nuestras cada vez más segmentadas -pero, al parecer, importantes- redes sociales.” Vid. CALVO GALLEGO, F.J.: Tomada de una intervención oral.

22 SERRANO FALCÓN, C.: (1 de diciembre de 2021). “Proceso de contratación política de empleo y uso de algoritmos”. [Vídeo] en Jornada Discriminación Algorítmica laboral (1/diciembre/2021). UAB. Discriminación algorítmica laboral, jornada 1 dic 2021, UB – YouTube

23 De nuevo, por todos, RIVAS VALLEJO P.: La aplicación de la Inteligencia Artificial al trabajo y su impacto discriminatorio, op.cit. pp. 106-108.

24 Ibídem, p. 108. “El aprendizaje por refuerzo puede reforzar o combinarse con el aprendizaje profundo para dar un paso más, al integrar la psicología conductivista en el aprendizaje automático para entrenar al algoritmo en la elección de las mejores acciones para maximizar el resultado”.

25 BELTRAN DE HEREDIA RUÍZ, I.: La irrupción de los algoritmos en el Derecho del Trabajo. [Vídeo].

op.cit.

26 Por señalar el más conocido: HORWARD GARDNER (Inteligencias múltiples: la teoría en la práctica. Ed. Paidós. 2019) puso de manifiesto la existencia de “inteligencias múltiples” abandonando así el concepto unívoco de inteligencia que lo asimilaba más a una serie de capacidades de asimilación y memorísticas, en las que se obviaban otras dimensiones que nos definen como seres humanos y que forman parte por tanto de la denominada inteligencia humana. Así, este autor señalaba que no existía un único tipo de inteligencia, destacando la inteligencia musical, corporal-cinestésica, lingüística, lógico-matemática, espacial, interpersonal, intrapersonal, naturalista,

Así pues, y con independencia de la evolución que con seguridad experimentarán las máquinas en orden a la obtención de respuestas automáticas y eficaces para el ser humano, el concepto de “inteligencia” atribuido a estos seres inertes, una vez superado el inicial desconcierto, nos hace preguntarnos acerca de cuál de estas opciones de inteligencia humana es la que se refiere cuando hablamos de inteligencia artificial.

En definitiva, entendemos que es razonable pensar que lo que hoy conceptuamos como parte integrante de esa IA en el futuro más o menos próximo no sea concebido de tal manera. Creemos que esta idea es ilustrada con lo que ya ha ocurrido en relación a lo que antes entendíamos podía hacer un robot y cómo la ingeniera humana ha perfeccionado este para realizar incluso funciones que, en principio, se atribuían como genuinamente humanas. Una muestra de lo que las máquinas – inteligencia artificial- ha evolucionado en AL-RODHAN, N.: “Agentes de Inteligencia Artificial: prerrequisitos                         sobre                          derechos                                          y                       dignidad”.           Disponible                                 en Agentes_de_Inteligencia_Artificial_prere.pdf

ÁLVAREZ CUESTA, H.: “Dimensión jurídica de la IA en el derecho de la Unión Europea” [Vídeo] en Jornada Discriminación Algorítmica laboral (1/diciembre/2021). UAB. Discriminación algorítmica laboral, jornada 1 dic 2021, UB – YouTube. Se detiene la autora en la evolución experimentada acerca del alcance del término inteligencia artificial y cómo en la actualidad no es preciso que nos encontremos ante un robot para poder hablar de inteligencia artificial pues “no es necesario que tenga un sustrato físico” y de ahí que nos hable del “cerebro flotando”.

La futura denominada Ley de Inteligencia Artificial (UE) actualmente en fase de propuesta, es consciente de la volatilidad del término y ya en la Exposición de Motivos (5.2.1) expresa que “La definición de “sistema de IA” que figura en el marco jurídico pretende ser lo más tecnológicamente neutra posible y resistir al paso del tiempo lo mejor posible, habida cuenta de la rápida evolución tecnológica y del mercado en relación con la IA”. De esta forma, en el art.3 define el sistema de inteligencia artificial como “el software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa”.

27 Véase, RIVAS VALLEJO, P.: La aplicación de la Inteligencia Artificial al trabajo., op.cit., p. 463 (glosario): “Para el Consejo Económico y Social Europeo es “la disciplina tendente a utilizar las tecnologías digitales para crear sistemas capaces de reproducir de forma autónoma las funciones cognitivas humanas, incluida la captación de datos y formas de comprensión y adaptación (solución de problemas, razonamiento y aprendizaje automáticos)” (Dictamen Inteligencia artificial: anticipar su impacto en el trabajo para garantizar una transición justa, punto 2.2). Por su parte, la Comisión Europea la define, en su Libro blanco sobre la inteligencia artificial -un enfoque europeo orientado a la excelencia y la confianza, como colección de tecnologías que combina datos, algoritmos y capacidad de computación.

28 La Carta antes mencionada, como ya tuvimos la oportunidad de indicar cuando abordamos el concepto de algoritmo, incluye un glosario para definir los términos a los que se aluden en este instrumento.

29 FUMERO DIOS, I.S.: “Capítulo XVI. La gestión de los riesgos psicosociales en entornos de trabajo robotizados y dotados de IA” en VV.AA.: Accidentes de trabajo y enfermedades profesionales. Experiencias y desafíos de una protección social centenaria. Tomo II. IV Congreso Internacional y XVII Congreso Nacional de la Asociación Española de Salud y Seguridad Social. Laborum. 2020, p. 482.

30 RIVAS VALLEJO, P.: La aplicación de la Inteligencia Artificial en el trabajo, op.cit., p. 458. Otra definición de esta autora. En el glosario se refleja que se trata del “sistema de autoaprendizaje automático en el campo de las redes neuronales en inteligencia computacional, basado en el manejo de datos, que va construyendo capas de datos que alimentan y mejoran el algoritmo, lo que implica que el algoritmo aprende a partir de las distintas capas de datos que se le van introduciendo, mejorando los patrones anteriores, y que el aprendizaje automático va mejorando a medida que progresa en su gestión de los datos introducidos, depurando su funcionamiento y aproximándose a los mecanismos neuronales del cerebro humano”. La autora incluye también ejemplos relativos a las plataformas “IBM Watson Developer Cloud…, Amazon Machine Learning…, Azure Machine Learning…, TensorFlow… o BigML”.

31 Conceptos todos ellos extraídos del Proyecto de Texto de la Recomendación sobre la Ética de la Inteligencia Artificial (UNESCO. París. 41ª reunión. 9 a 24 de noviembre de 2021).

32 Máximas también a las que detenidamente dedica su atención el Proyecto de Texto de la Recomendación sobre la Ética de la Inteligencia Artificial anteriormente indicada.

33 SÁNCHEZ ZAPLANA, A.: “Breve introducción a la Inteligencia Artificial para todos los públicos”. El Consultor de los Ayuntamientos. Revista Especializada en Administración Local. Julio 2019. núm. 10. Versión electrónica (Smarteca). “…desde que encendemos nuestro smartphone, localizamos el mejor trayecto para un destino, utilizamos nuestro asistente personal para preguntarle cuál es la farmacia de guardia más cercana, encendemos algún servicio de streaming de video y nos aconseja la última serie estrenada (que encima me gusta nada más comenzar a verla), escuchamos una lista de canciones recomendadas por una APP, compramos un artículo en una web del retail (de algo que necesitaba encima), se nos clasifican los mails que nos ofrecen una herencia de millones de $ automáticamente en la bandeja de SPAM, uso un traductor online de chino a español, etc., estamos usando la Inteligencia Artificial… el tema es que hay muchos más usos de la inteligencia artificial que no son tan conocidos como la lucha contra la ciberdelincuencia, contra la pobreza extrema, contra el cambio climático, o algo menos sexy como elegir entre miles de curriculums cuál es el que más encaja con las necesidades laborales o el propio sistema financiero”.

34 Ibídem.

35 MERCADER UGUINA, J.R.: “Algoritmos: personas y números en el Derecho Digital del trabajo”, Diario La Ley, Nº 48, Sección Ciberderecho, 23 de febrero de 2021. Las posibilidades que entraña el uso de la inteligencia artificial son realmente asombrosas. Así, en China, se emplea de forma generalizada un software de reconocimiento facial que permite discernir -a través de un sistema de cámaras impulsado por la empresa Huawei- para reconocer quiénes pertenecen a una etnia (aparte de la edad y sexo de la persona captada por la cámara). La inteligencia artificial también tiene su reflejo en el ámbito policial. Países como EEUU, Reino Unido, Alemania o Suiza emplean métodos predictivos para reforzar actuaciones policiales en sectores concretos (así, fundamentalmente, barrios marginales) o calibrar las posibilidades que tienen los sujetos de delinquir (“policía predictiva”). Algoritmos de predicción policial: cuando la delincuencia tiene sesgo – Hablemos de Tecnologías (hablemosdetecnologias.com) Otro ejemplo: Tay (un bot de conversación de inteligencia artificial creado por Microsoft) se volvió racista, antisemista y sexista. – BBC News Mundo.

36 La proyección de la inteligencia artificial, de los algoritmos, en todas las facetas ha sido puesta de manifiesto por la doctrina -no solo laboralista-. Por supuesto, en el campo de salud, pero también en sectores como la agricultura, medio ambiente, sanidad, contratación pública o los relacionados con la seguridad interior (entre otros). ÁLVAREZ CUESTA, H.: “Dimensión jurídica de la IA en el derecho de la Unión Europea” [Vídeo] op.cit.

37 ÁLVAREZ CUESTA, H.: “Dimensión jurídica de la IA en el derecho de la Unión Europea”. [Vídeo] op.cit.: se refiere al proceso de diálogo bilateral entablado entre la UE con Canadá y Japón, así como

las previsiones futuras de entablarlo con lugares como India, Australia o Singapur, así como con EEUU. Nótese -como advierte la ponente- que, por el momento, este intercambio de opiniones no se ha llevado a cabo con un referente en la materia que hoy abordamos: China. Rescatando las palabras del presidente del Comité Especial del Parlamento sobre Inteligencia Artificial en la Era Digital «Europa necesita desarrollar una inteligencia artificial que genere confianza, elimine cualquier tipo de sesgo y discriminación, contribuya al bien común al tiempo que asegure que las empresas y la industria prosperan y generan prosperidad económica”. Discurso de Dragos Tudorache, eurodiputado rumano por los liberales de Renew Europe. Regulación de la inteligencia artificial en la UE: la propuesta del Parlamento | Noticias | Parlamento Europeo (europa.eu) (fecha de consulta: 21 de octubre de 2021).

38 Vid. ÁLVAREZ CUESTA, H.: “Dimensión jurídica de la IA en el derecho de la Unión Europea” [Vídeo] op.cit.

39 La Recomendación CM/Rec (2020) 1 del Comité de Ministros a los Estados miembros sobre los impactos de los sistemas algorítmicos en los derechos humanos, de 8 de abril de 2020 “Los Estados deben incentivar la innovación tecnológica de acuerdo con los derechos humanos existentes, incluidos los derechos sociales y las normas laborales y de empleo reconocidas internacionalmente”.

40 El art.5 desglosa las prácticas prohibidas. La enumeración de estas nos sitúa en una realidad de ciencia ficción digna de un argumento de película futurista. La inquietud que asalta al lector es considerable; se nos está alertando de que estas prácticas existen. Por destacar solo una: “… técnicas subliminales que trasciendan la conciencia de una persona para alterar de manera sustancial su comportamiento de un modo que provoque o sea probable que provoque perjuicios físicos o psicológicos a esa persona o a otra”. Nótese que, siendo conscientes de la posible innovación tecnológica, se arbitran fórmulas -art.6- para, siempre que concurran las circunstancias normativas señaladas, se puedan incorporar en la lista de sistemas prohibidos otras prácticas futuras.

41 El art.6 reza: “1. Un sistema de IA se considerará de alto riesgo cuando reúna las dos condiciones que se indican a continuación, con independencia de si se han introducido en el mercado o se ha puesto en servicio sin estar integrado en los productos que se mencionan en las letras a) y b):

a) el sistema de IA está destinado a ser utilizado como componente de seguridad de uno de los productos contemplados en la legislación de armonización de la Unión que se indica en el anexo II, o es en sí mismo uno de dichos productos;

b) conforme a la legislación de armonización de la Unión que se indica en el anexo II, el producto del que el sistema de IA es componente de seguridad, o el propio sistema de IA como producto, debe someterse a una evaluación de la conformidad realizada por un organismo independiente para su introducción en el mercado o puesta en 2.Además de los sistemas de IA de alto riesgo mencionados en el apartado 1, también se considerarán de alto riesgo los sistemas de IA que figuran en el anexo III.”

42 El análisis de la actual propuesta de Reglamento de Inteligencia Artificial (del Parlamento Europeo y del Consejo) califica -Anexo III- como sistema de inteligencia artificial de alto riesgo con relación al empleo: “4. Empleo, gestión de los trabajadores y acceso al autoempleo: a) sistemas de IA destinados a utilizarse para la contratación o selección de personas físicas, especialmente para anunciar puestos vacantes, clasificar y filtrar solicitudes o evaluar a candidatos en el transcurso de entrevistas o pruebas;b) IA destinada a utilizarse para tomar decisiones relativas a la promoción y resolución de relaciones contractuales de índole laboral, a la asignación de tareas y al seguimiento y evaluación del rendimiento y la conducta de las personas en el marco de dichas relaciones”. En relación a la Seguridad Social, en el apartado 5 de ese Anexo III: “Acceso y disfrute de servicios públicos y privados esenciales y sus beneficios: a) sistemas de IA destinados a ser utilizados por las autoridades públicas o en su nombre para evaluar la admisibilidad de las personas físicas para acceder a prestaciones y servicios de asistencia pública, así como para conceder, reducir, retirar o recuperar dichas prestaciones y servicios”.

43 Art. 52. Garantiza que el usuario conozca que quien le está atendiendo o con quien están interactuando -si fuera el caso- no es un humano que incluye no obstante la excepción al cumplimiento de esta obligación cuando se trate de “…situaciones en las que esto resulte evidente debido a las circunstancias y al contexto de su utilización”. Debiendo también ser informados del funcionamiento al usuario afectado por un “sistema de reconocimiento de emociones o de un sistema de categorización biométrica”, así como de aquellos contenidos -“imagen, sonido o vídeo”- “…que se asemeje notablemente a personas, objetos, lugares u otras entidades o sucesos existentes, y que pueda inducir erróneamente a una persona a pensar que son auténticos o verídicos (ultrafalsificación)”.

44 Art. 69, En su párrafo 1 encomienda a la Comisión y a los Estados miembros la tarea de fomento y facilitación en “… la elaboración de códigos de conducta destinados a promover la aplicación voluntaria de los requisitos establecidos en el título III, capítulo 2, a sistemas de IA distintos de los de alto riesgo…”

45 ÁLVAREZ CUESTA, H.: “Dimensión jurídica de la IA en el derecho de la Unión Europea”. [Vídeo]

op.cit.

46 Aplicaríamos, por tanto, los principios relativos a la transparencia (art.13), vigilancia humana (art.14), así como el relativo a la precisión, solidez y ciberseguridad (art.15).

47 Arts. 16 a 23. Básicamente, y siguiendo también a ÁLVAREZ CUESTA, H.: “Dimensión jurídica de la IA en el derecho de la Unión Europea”. [Vídeo], op.cit. las obligaciones son “gestión de calidad, elaborar una documentación técnica, elaborar una evaluación de conformidad ex ante, de registro, correctoras, de información a autoridades nacionales y a organismos notificados”.

48 En el ámbito laboral, usuario es el empresario, a quien se le debe información sobre los aspectos más definitorios de los sistemas de inteligencia artificial. Sin perder de vista la bondad de este mandato, ÁLVAREZ CUESTA, H.: “Dimensión jurídica de la IA en el derecho de la Unión Europea” [Vídeo] op.cit., se critica la ausencia de extender esa información a la representación de los trabajadores. Art. 29, relativo al uso de conformidad con las instrucciones de estos sistemas, pertinencia de los datos, información al proveedor o distribuidor si detectan algún riesgo.

49 Nuevamente, ÁLVAREZ CUESTA, H.: “Dimensión jurídica de la IA en el derecho de la Unión Europea”. [Vídeo] op.cit. Destaca varios aspectos no abordados. A título de ejemplo, en lo que aquí nos atañe, sobre la omisión del tratamiento de la discriminación.

Desde nuestro modesto punto de vista, no es el objeto de una Ley como esta el descender a un ámbito jurídico concreto. La misión es establecer un campo de actuación lo suficientemente genérico como para que todos los países de la Unión -con independencia de cuál sea la intensidad en la que se utilizan sistemas de inteligencia artificial- tengan un marco común, aplicable a todas las dimensiones de la realidad. Atender específicamente a cada uno de los problemas que se plantean en los diferentes sectores jurídicos es perder la perspectiva bajo la cual está siendo concebido este marco general. Este es el primer paso y sobre los Estados recae la obligación de mejorar, garantizar y velar porque la inteligencia artificial se ajuste a los parámetros más adecuados en cada una de las ramas del ordenamiento jurídico interno, sin descartar la posibilidad de que a través de una acción conjunta y futura se pueda -acaso a través de Directivas- llevar a cabo una regulación más pormenorizada y ajustada a las necesidades concretas que se hayan planteado o que se puedan idear.

50 Adoptada esta por la Comisión Europea para la Eficiencia de la Justicia con fecha 3-4 de diciembre de 2018. En ella se hace un llamamiento al respeto de los derechos fundamentales, haciendo expresa referencia al derecho de no discriminación. También se alude a la calidad y seguridad del procesamiento de los datos judiciales, así como la transparencia, imparcialidad, equidad y la máxima “bajo control de usuario”. Téngase en cuenta que, a pesar de su título, existe doctrina cualificada que entiende (de la lectura de la misma) que pueden aplicarse sus preceptos cuando se produce la gestión de personal de las empresas. de lo que se concluye la posible aplicación a los entes privados. Así, OLARTE ENCABO, S.: (26 de noviembre de 2021). “Los criterios retributivos y su modelación a través de IA: propuestas de mejora”. [Sesión de conferencia]. Discriminación algorítmica en el trabajo. Universidad de Granada.

51 Este deber se consigna expresamente en el art.13 de la Ley de Inteligencia Artificial.

52 Estos principios -con sus correspondientes definiciones- son puestas de manifiesto por PRECIADO DOMÉNECH, C.H.: “Algoritmos y discriminación en la relación laboral”, op.cit., p. 9.

53 Dictamen CESE: “Inteligencia artificial: anticipar su impacto en el trabajo para garantizar una transición justa”, Dictamen de iniciativa, 2018/C 440/01. Insistiendo en esta idea, a título ejemplificativo, MOLINA NAVARRETE, C.: “«Duelo al sol» (digital). ¿Un algoritmo controla mi trabajo? Sí; a tu empresa también”. Revista de Trabajo y Seguridad Social. CEF, 457 (abril 2021), p. 8.

54 Para un comentario extenso, vid. SEPÚLVEDA GÓMEZ, M.: “El acuerdo marco europeo sobre digitalización. El necesario protagonismo de la norma pactada”. Temas Laborales núm. 158/2021. Pp. 213-244.

55 GOERLICH PESET, J.M: (6 de noviembre de 2021). VII Jornadas de Derecho Social de la Unión Europea. [Vídeo]. En AEDTSS. VII Jornadas de Derecho Social de la Unión Europea (06/11/2020) – YouTube

Esquemas variados en función de realidades nacionales, sectoriales y empresariales.

56 El sindicato UGT, el 8 de febrero de 2021, propugnó la necesidad de promulgar una Ley de Justicia Algorítmica en las relaciones laborales. LAS DECISIONES ALGORÍTMICAS EN LAS RELACIONES LABORALES (ugt.es)

57 MOLINA NAVARRETE, C.: “Big data y relaciones laborales” [Vídeo] op.cit.

58 Junto a este precepto, la doctrina especializada (RIVAS VALLEJO P.: “Combatir la discriminación algorítmica a través de instrumentos jurídicos y formativos: la formación en perspectiva de género de los programadores y desarrolladores”. (26 de noviembre de 2021) [Sesión de conferencia]. Universidad de Granada, completa el cuadro que, a la postre, va a suponer las excepciones a la potestad de no compartir y desvelar el algoritmo, tanto el art.2.c) de la Ley 1/2019 de 20 de febrero de Secretos Empresariales y el art.5 de la Directiva 2016/943.

MERCADER UGUINA, J. R. (2021). “Discriminación algorítmica y derecho granular: nuevos retos para la igualdad en la era del big data”, op.cit., p. 6, resalta cómo este precepto puede considerarse como la “primera materialización” de una de las necesidades advertidas por el Dictamen del Comité Económico y Social Europeo consistente en “…consultar e informar a los trabajadores y sus representantes a la hora de introducir sistemas de IA que pudieran provocar cambios en la organización del trabajo, la vigilancia y su control, así como en los sistemas de evaluación y contratación de los trabajadores”.

59 Inclusión esta propiciada por el Real Decreto Ley 9/2021, de 11 de mayo. La incorporación de este nuevo apartado ha planteado nuevos interrogantes para nuestra doctrina -específicamente, OLARTE

ENCABO, S.: “Los criterios retributivos y su modelación a través de IA: propuestas de mejora”. [Sesión de conferencia]. op.cit.– que se pregunta acerca del alcance de la obligación y si esas garantías se aplicarían únicamente a las empresas que emplean la plataforma para prestar el servicio o su ámbito de aplicación se extendería a cualquier entidad empresarial. Se decanta por la segunda posición (en el mismo sentido, GARRIGUES GIMÉNEZ, A.: “Herramientas sindicales: la negociación colectiva.” (26 de noviembre de 2021) [Sesión de conferencia]. Universidad de Granada.

60 A fecha del cierre del presente (6 de enero de 2022). Convenio colectivo para los establecimientos financieros de crédito (BOE de 15 de octubre de 2021, núm. 247). En el art.35 incorpora los mencionados “derechos digitales”, dedicando un apartado -el 5- a los “derechos ante la inteligencia artificial. Las nuevas herramientas basadas en algoritmos pueden aportar valor hacia una gestión más eficiente de las Empresas, ofreciendo mejoras en sus sistemas de gestión. Sin embargo, el desarrollo creciente de la aportación de la tecnología requiere de una implantación cuidadosa cuando se aplica en el ámbito de las personas. Por ello, las personas trabajadoras tienen derecho a no ser objeto de decisiones basadas única y exclusivamente en variables automatizadas, salvo en aquellos supuestos previstos por la Ley, así como derecho a la no discriminación en relación con las decisiones y procesos, cuando ambos estén basados únicamente en algoritmos, pudiendo solicitar, en estos supuestos, el concurso e intervención de las personas designadas a tal efecto por la Empresa, en caso de discrepancia.

Las Empresas informarán a la RLT sobre el uso de la analítica de datos o los sistemas de inteligencia artificial cuando los procesos de toma de decisiones en materia de recursos humanos y relaciones laborales se basen exclusivamente en modelos digitales sin intervención humana.

Dicha información, como mínimo, abarcará los datos que nutren los algoritmos, la lógica de funcionamiento y la evaluación de los resultados.”

Algo menos extenso, el art.80 -también sobre derechos digitales- del XXIV Convenio colectivo del sector de la banca (Resolución de 17 de marzo de 2021, BOE de 30 de marzo de 2021): “5. Derecho ante la inteligencia artificial. Las nuevas herramientas basadas en algoritmos pueden aportar valor hacia una gestión más eficiente de las Empresas, ofreciendo mejoras en sus sistemas de gestión. Sin embargo, el desarrollo creciente de la aportación de la tecnología requiere de una implantación cuidadosa cuando se aplica en el ámbito de las personas. Por ello, las personas trabajadoras tienen derecho a no ser objeto de decisiones basadas única y exclusivamente en variables automatizadas, salvo en aquellos supuestos previstos por la Ley, así como derecho a la no discriminación en relación con las decisiones y procesos, cuando ambos estén basados únicamente en algoritmos, pudiendo solicitar, en estos supuestos, el concurso e intervención de las personas designadas a tal efecto por la Empresa, en caso de discrepancia.

Las Empresas informarán a la RLT sobre el uso de la analítica de datos o los sistemas de inteligencia artificial cuando los procesos de toma de decisiones en materia de recursos humanos y relaciones laborales se basen, exclusivamente en modelos digitales sin intervención humana. Dicha información, como mínimo, abarcará los datos que nutren los algoritmos, la lógica de funcionamiento y la evaluación de los resultados.”

En el Convenio Colectivo del sector de grandes almacenes (Resolución de 31 de mayo de 2021, BOE 11 de junio de 2021) se prevé la creación de un Observatorio sectorial integrado por los firmantes del Convenio que, entre otras tareas, asumirá la de prestar “especial atención a la utilización de algoritmos que incidan en las condiciones de trabajo” (Disposición Transitoria Undécima).

Por su parte, el XVI Convenio Colectivo de la empresa ONCE y su personal (Resolución de 8 de enero de 2018, BOE de 18 de enero de 2018) en el art. 73 para configurar como infracción del

trabajador: “c.27) Descifrar, o intentar descifrar, las contraseñas, sistemas o algoritmos de cifrado y cualquier otro elemento de seguridad que intervenga en los procesos telemáticos de la Organización”.

Por último, Convenio Colectivo de la empresa Grupo Acha Movilidad-Lujua Txorierri Mungialdea,

S.A. (Resolución de 26 de febrero de 2021, BO Bizkaia 23 de junio de 2021, núm. 118). En esta ocasión, el algoritmo es un instrumento para ordenar el servicio de recogida de los trabajadores- conductores (art. 22).

El Convenio Colectivo general de ámbito estatal para el sector de entidades de seguros, reaseguros y mutuas colaboradoras con la Seguridad Social (Resolución de 15 de diciembre de 2021, BOE de 27 de diciembre de 2021, núm. 310). Aborda este la “Inteligencia artificial en las relaciones laborales” (art. 14). Se declara la expresa aplicación de la normativa completa de protección de datos, la aplicación de la “Declaración Conjunta sobre Inteligencia Artificial, aprobada por los Agentes Sociales Europeos del Sector de Seguros el 16 de marzo de 2021” y, por supuesto, se ponen de manifiesto las bondades de aquella en la dimensión laboral. El final del precepto señalado (el subrayado es nuestro): “Las empresas informarán a la representación legal de las personas trabajadoras sobre el uso de la analítica de datos o los sistemas de inteligencia artificial cuando los procesos de toma de decisiones en materia de recursos humanos y relaciones laborales se basen exclusivamente en modelos digitales sin intervención humana.”

61 Véase, PRECIADO DOMÉNECH, C.H.: “Algoritmos y discriminación en la relación laboral”, op.cit. pp. 13-17 que analiza el contenido del Código de buenas prácticas en protección de datos para proyectos big data (Coord. ACED, E., HERAS, M.R y SÁIZ, C.A), disponible en guia-codigo-de- buenas-practicas-proyectos-de-big-data.pdf (aepd.es).

62 Así, en esta línea se encauzan autores como FREY C.B. y OSBORNE, M.A. “The future of employment: how susceptible are Jobs to computerization?”. Technological Forecasting and Social Change, 2017, 114, 254-280.

63 Visión optimista encabezada por NEDELKOSKA, L. y QUINITINI, G.: “Automation, skills use and training”, OECD Social, Employment and Migration Working Papers. 202. 2018.

Rescatando manifestaciones de la doctrina laboral, GOÑI SEIN, J.L.: “Innovaciones tecnológicas, inteligencia artificial y derechos humanos en el trabajo”. Documentación Laboral, núm. 117, 2019. P. 61: “La robótica seguirá siendo un subproducto humano, porque la creatividad es algo esencialmente humana. Por más que los robots actúen con un alto grado de autonomía, y sean capaces de generar sus propias instrucciones, no hay que dejar de ver, detrás de cada robot a la acción humana”. En otro momento de su trabajo (p. 63) llega a afirmar que “De momento, el avance de la automatización está siendo limitado y no se han perdido tantos puestos de trabajo como se ha venido vaticinando” por lo que “En todo caso parece innegable, que se producirá una transformación de los modelos de producción y que ello tendrá repercusiones laborales y sociales para el colectivo de trabajadores”.

Por su parte, MOLINA NAVARRETE, C.: “Big data y relaciones laborales” [Vídeo]. Expone un dato desde el cual podemos extraer nuestras propias conclusiones: “los países que han aplicado más big data han tenido más éxito (así, China)”.

El Foro Económico Mundial, 2018: MERCADER UGUINA, J.R.: (29 de septiembre de 2021) “¿La digitalización crea, destruye o transforma el empleo? [Vídeo]. Congreso Internacional UJA. Panel de Ponencias I – ¿La digitalización crea, destruye o transforma el empleo? – YouTube) “Casi el 50 por ciento de las empresas esperan que la automatización lleve a una reducción de su fuerza de trabajo a tiempo completo en 2022” (nótese que la fecha es anterior a la irrupción de la pandemia, por lo que, no es descabellado pensar que el porcentaje pueda ser mayor).

64 Más que de profesiones concretas, reflejamos habilidades requeridas. De esta manera, hoy por hoy al menos, existe un consenso sobre lo que se requerirá en el futuro laboral. Habilidades como “creatividad o el razonamiento deductivo” “comunicación, el trabajo en equipo, el liderazgo o la negociación)” son las aptitudes destacadas por “Fundamentos y propuestas para una Estrategia Nacional de Largo Plazo. España 2050”. https://www.lamoncloa.gob.es/presidente/actividades/Documents/ 2021/200521-Estrategia_Espana_2050.pdf.

65 BOE de 31 de diciembre de 2003.

66 BOE de 23 de marzo de 2007. En el art.5 se establecen las excepciones, esto es, situaciones que no constituyen discriminación en el acceso de empleo. La interpretación del precepto -como ya han tenido la oportunidad de señalar nuestros tribunales, v.gr. acceso al trabajo en minas reservado a hombres: STC 22/92 de 14 de diciembre – ha de ser restrictiva.

67 por el que se aprueba la Estrategia Española de Apoyo Activo al Empleo 2021-2024. Combina la

necesidad de acompañar a cada individuo (y empresa) “a lo largo de todo el proceso laboral” “…que

debe complementarse con el proceso de digitalización de los servicios públicos de empleo, con la incorporación del Big Data y la Inteligencia Artificial, garantizando enfoques específicos basados en el principio de igualdad de oportunidades y no discriminación…

68 Real Decreto Legislativo 3/2015, de 23 de octubre, por el que se aprueba el texto refundido de la Ley de Empleo.

69 Real Decreto Legislativo 5/2000, de 4 de agosto, por el que se aprueba el texto refundido de la Ley sobre Infracciones y Sanciones en el Orden Social.

70 Directiva 2000/43/CE del Consejo, de 29 de junio de 2000, relativa a la aplicación del principio de igualdad de trato de las personas independientemente de su origen racial o étnico.

71 La Recomendación de la Comisión Europea sobre el refuerzo del principio de igualdad de retribución entre hombres y mujeres a través de la transparencia. Allí se recoge -y de nuevo esta circunstancia se pone de relieve por OLARTE ENCABO, S.: Los criterios retributivos y su modelación a través de IA: propuestas de mejora. [Sesión de conferencia] op.cit., la necesidad de que se creen nuevos mecanismos tendentes a esa igualdad real, toda vez que la Directiva mencionada agotó su contenido. Otro instrumento que redunda en la igualdad salarial de género -también puesto de manifiesto por idéntica autora- la Resolución del Parlamento europeo de 30 de enero de 2020 sobre la brecha salarial de género. Alerta también de que la Directiva 1152/2019 del Parlamento Europeo y del Consejo de 20 de junio de 2019, relativa a unas condiciones laborales transparentes y previsibles en la Unión Europea no establece previsión alguna sobre el salario en relación con los mecanismos de determinación propiciados por la inteligencia artificial.

72 FERNÁNDEZ GARCÍA, A.: (2013, febrero, 13). “La discriminación en el trabajo (II): discriminaciones indirectas”. [Mensaje en Blog]. Recuperado de La discriminación en el trabajo (II): discriminaciones indirectas | AFLabor (wordpress.com).

Tras enunciar cómo los arts.4.2.c) y 17 del ET “prohíben las discriminaciones indirectas” destaca de su lectura que estos preceptos no se encargan de delimitar este concepto. El autor acude, ante ello, a “diferente normativa o jurisprudencia…” Tras el examen exhaustivo, resalta la concurrencia de los siguientes elementos para que se aprecie la discriminación indirecta: “1.-Una norma, pacto o decisión aparentemente neutra, es decir, que no tenga ánimo discriminatorio. 2.- Esta norma, pacto o decisión debe provocar una desventaja para una persona respecto de otras, en atención a un motivo prohibido de discriminación de los que aparecen enumerados en el artículo 14 CE y en los artículos 4.2.c) y 17.1 ET.3.- Esa norma, pacto o decisión no tiene una finalidad legítima ni justificación objetiva alguna. Si falla alguno de estos 3 requisitos NO estaremos ante una discriminación indirecta”.

Por supuesto, destacar en este apartado la labor que ha llevado a cabo el Tribunal Europeo de Derechos Humanos perfilando -a la luz de concretos supuestos de hechos- el concepto de discriminación.

73 El concepto de discriminación indirecta es el mismo en todas las Directivas antes indicadas, variando tan solo razón por la que se discrimina.

74 Las empresas, con base al art.38 de la Constitución, pueden hacer uso de estas tecnologías en el ámbito de las relaciones laborales, tal y como destacara SERRANO FALCÓN, C.: “Proceso de contratación política de empleo y uso de algoritmos”. [Vídeo], op.cit.

Esta invasión de la inteligencia artificial a cuantas facultades ostenta el empresario es puesta de manifiesto por MERCADER UGUINA, J. R.: “Algoritmos y derecho del trabajo”, op.cit., p. 64.

75 MOLINA NAVARRETE, C.: “Big data y relaciones laborales”. [Vídeo]. op.cit. En definitiva, siguiendo a este autor, lo que el empresario persigue -véase la similitud con respecto al modelo tradicional de relaciones laborales- es que “haya los mínimos tiempos muertos”.

76 Numerosos autores destacan esta circunstancia. Como botón de muestra: MOLINA NAVARRETE, C.:

Big data y relaciones laborales. [Vídeo]. op.cit.

77 Véase, aun cuando negando la petición de que se trate de una modificación sustancial de las condiciones de trabajo, la Sentencia de la Audiencia Nacional de 27 de julio de 2021 (AS 2021/1434) en relación a la implantación de un sistema de asignación de puestos de trabajo, conocido como hot desk, que implicaba que los trabajadores de la empresa no tuvieran un puesto de trabajo asignado, sino que este se adjudicaba en atención a la petición previa del empleado a través de una aplicación informática, esto es, de un algoritmo.

78 MOLINA NAVARRETE, C.: “«Duelo al sol» (digital). ¿Un algoritmo controla mi trabajo? Sí; a tu empresa también”. op.cit., p. 8. “Los sistemas de decisión algorítmica se venden como el método más eficaz para valorar un inmenso conjunto de situaciones y personas sin introducir sesgos. Su -ilusoria- objetividad evitaría tanto la incertidumbre en la decisión (conocimiento intuitivo, corazonadas, impresiones, sesgos de la experiencia pasada), cuanto el efecto discriminatorio (estereotipos sociales, prejuicios, etc.). Por supuesto, todo a un módico precio”.

Que los algoritmos incorporan sesgos discriminatorios es una realidad incontestable. Así, y a título de ejemplo y por lo coetáneo con estas líneas, el Proyecto de Texto de la Recomendación sobre la Ética de la Inteligencia Artificial (París. 9 a 24 de noviembre): “Considerando que las tecnologías de la IA pueden ser de gran utilidad para la humanidad y que todos los países pueden beneficiarse de ellas, pero que también suscitan preocupaciones éticas fundamentales, por ejemplo, en relación con los sesgos que pueden incorporar y exacerbar, lo que puede llegar a provocar discriminación, desigualdad, brechas digitales y exclusión y suponer una amenaza para la diversidad cultural, social y biológica, así como generar divisiones sociales o económicas.”

79 SORIANO ARNANZ, A.: “Decisiones automatizadas y discriminación: aproximación y propuestas generales”, op.cit., “En el sector público, los algoritmos se emplean en la configuración de los sistemas de ayudas públicas, en la provisión de servicios públicos y también en la actividad desarrollada por los cuerpos y fuerzas de seguridad, así como en otras clases de actividades de limitación, con una creciente incidencia en los procesos de análisis de datos y detección de pautas que permitan identificar conductas, o incluso preverlas, dentro de las actividades de inspección y control.”

80 Es este un concepto que con naturalidad se ha deslizado en las páginas de nuestra doctrina. Véase, MERCADER UGUINA, J. R. (15/02/2021). “Discriminación algorítmica en el trabajo y derecho fundamental a la transparencia: ¿Debemos (podemos) regular los algoritmos?” El Foro de Labos. https://www.elforodelabos.es/discriminacion-algoritmica-en-el-trabajo-y-derecho-fundamental-a- la-transparencia-debemos-podemos-regular-los-algoritmos/

81 MERCADER UGUINA, J. R. (2021). “Discriminación algorítmica y derecho granular: nuevos retos para la igualdad en la era del big data”, op.cit., p. 6.

82 MERCADER UGUINA, J.R (Febrero 2021) “La regulación de los algoritmos”. Debate online. Conversaciones online desde la Fundación Ramón Areces. Madrid. Disponible en https://www.youtube.com/watch?v=ZFFQ9rk46lA. Es esta una idea reiterada por el Profesor Mercader (minuto 15:39). “Los algoritmos no tienen imaginación […] no incorporan emoción”. Del mismo autor, MERCADER UGUINA, J. R.: “Algoritmos y derecho del trabajo”. Actualidad Jurídica Uría Menéndez, 52, 2019, p. 64. Siguiendo con este autor, MERCADER UGUINA, J. R (15/02/2021). “Discriminación algorítmica en el trabajo y derecho fundamental a la transparencia: ¿Debemos (podemos) regular los algoritmos?” op.cit. Los algoritmos respiran el aire de los datos y si estos datos están contaminados también lo estarán los resultados que obtengamos. De ello es consciente el …actual, Comité Europeo de Protección de Datos, en adelante, CEPD) que en sus Directrices sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del Reglamento 2021/679… ya subrayó los riesgos de estas fórmulas… La elaboración de perfiles puede perpetuar los estereotipos existentes y la segregación social”. MERCADER UGUINA, J. R. (2021). “Discriminación algorítmica y derecho granular: nuevos retos para la igualdad en la era del big data”, op.cit.

83 Véase, en este sentido, la Sentencia del Tribunal Distrito de La Haya de 5 de febrero de 2020 que aprecia la existencia de un sesgo discriminatorio en el sistema de algoritmos empleado por el gobierno de Países Bajos. El algoritmo tenía como objetivo la evaluación de la posibilidad de fraude a instituciones como Seguridad Social y Hacienda. La sentencia enunciada estima vulneración del art.8 del Convenio Europeo de Derechos Humanos y aunque el fin sea legítimo, “el modelo de riesgo elaborado en estos momentos por SyRI (esto es el algoritmo) puede tener efectos no deseados, como estigmatizar y discriminar a la ciudadanía, por la ingente cantidad de información que recoge”. Uno de los colectivos afectados era el del grupo de personas con menor capacidad económica.

El objetivo era legítimo (esta circunstancia fue puesta de manifiesto por MOLINA NAVARRETE, C.: “Big data y relaciones laborales”, [Vídeo] op.cit., “Reconoce tres cosas: el objetivo es legítimo” (la prevención y control del fraude) “genera riesgos” (discriminación a trabajadores, pensionistas o empresas o autónomos) y “como no es suficientemente transparente el sistema digital lo declara nulo”.

84 El acceso al empleo en condiciones de equidad está reconocido por el art. 35 CE. A mayor abundamiento, la Directiva 2000/78, en su art. 3.1 que incluye dentro de su amparo “a) las condiciones de acceso al empleo, a la actividad por cuenta propia y al ejercicio profesional, incluidos los criterios de selección y las condiciones de contratación y promoción, independientemente de la rama de actividad y en todos los niveles de la clasificación profesional, con inclusión de lo relativo a la promoción”. Aplicable también la Directiva 2000/43 y Directiva 2000/78. Aspectos estos resaltados por -a título de ejemplo- STJUE de 28 de julio de 2016 (C-423/15, TJCE 2016/305).

85 La Ley de Empleo, Real Decreto Legislativo 3/2015, de 23 de octubre, que en su art.31 define a la intermediación laboral como el “conjunto de acciones que tienen por objeto poner en contacto las ofertas de trabajo con los trabajadores que buscan un empleo, para su colocación.” Un estudio sobre la evolución y agentes en FERNÁNDEZ GARCÍA, A.: “Intermediación laboral y discriminación”. Dona, treball i noves tecnologies. Lleida, 4 de marzo de 2020. Disponible en Intermediación laboral digital y discriminación Jornada Lleida, 4 de marzo de 2020 (uoc.edu)

86 Así, Facebook, en función de la información suministrada por el usuario en relación a la profesión ejercida, hace llegar ofertas de trabajo -a través de los algoritmos- a la persona aun cuando no esté en búsqueda activa de empleo. FERNÁNDEZ GARCÍA, A.: (15/septiembre/2020). Intermediación laboral digital y discriminación. [Sesión de conferencia]. Centre Dolors Piera Universitat de Lleida. Taula rodona. Dona, Treball i Noves Tecnologies – YouTube. De igual modo, con la plataforma Linkedin y las sugerencias de empleo e incluso solicitud de preferencias.

87 FERNÁNDEZ GARCÍA, A. (21-22 de junio de 2018). “Los sistemas reputacionales de la economía colaborativa ¿una barrera en el derecho al trabajo? [Sesión de conferencia]. Collaborative Economy: Challenges and Opportunities. Actas del 14ª Congreso Internacional Internet, Derecho y Política. Universitat Oberta de Catalunya, Barcelona. 2018-idp_uoc.pdf (wordpress.com). “No cabe duda de que el estado de la tecnología de la que estamos hablando (algoritmos, macrodatos, etc) permite la elaboración de perfiles y la evaluación de datos diversos de un trabajador (valoraciones de terceros, datos profesionales, etc.) que al final se tienen en cuenta para que sea contratado o no”.

88 MERCADER UGUINA, J. R.: “Algoritmos y derecho del trabajo”. op.cit., p. 64.

89 OLARTE ENCABO, S.: “La aplicación de la inteligencia artificial a los procesos de selección de personal y ofertas de empleo: impacto sobre el derecho a la no discriminación”. Documentación Laboral número 119. 2020. P. 82. Esta autora nos hace ver cómo “…la aplicación de esta tecnología que implica posesión y tratamiento de datos personales, constituye una realidad ambivalente, en la medida en que, a la vez que puede redundar en la mayor eficiencia en la intermediación laboral y la gestión de personal para las empresas, ello genera una mayor vulnerabilidad de los derechos fundamentales de los trabajadores, no solo de la intimidad y la dignidad, sino del derecho a la no discriminación en el acceso al empleo, que es un derecho consagrado en el art.35.1 CE cuyo contenido se concreta, según doctrina constitucional consolidada, en el derecho al acceso al empleo sin discriminación, así como en el derecho a no ser privado del trabajo sin una causa justa en derecho”.

90 Seguimos con FERNÁNDEZ GARCÍA, A.: «Trabajo, algoritmos y discriminación», en RODRÍGUEZ- PIÑERO ROYO, M y TODOLÍ SIGNES, A. (Dtores.): Vigilancia y control en el Derecho del Trabajo Digital. Thomson-Reuters Aranzadi, 2020. La plataforma concreta es Work-Today y el mismo tratamiento de exclusión tiene el candidato que no se presenta a la entrevista de trabajo previamente concertada.

El gigante Amazon empleó -2014- un software para seleccionar el mejor candidato a una oferta de empleo. El resultado fue la exclusión de mujeres en el proceso; el sistema había sido entrenado para descartarlas con base a los datos previos que le mostraban que el perfil ideal era el de un hombre. El sistema era sutil: descartaba a las demandas de empleo de mujeres cuando detectaba en el currículum de estas el empleo de un vocablo en femenino. Amazon scraps secret AI recruiting tool that showed bias against women | Reuters

91 FERNÁNDEZ GARCÍA, A. (2020/noviembre/17). “Discriminación por nacionalidad en la búsqueda digital de empleo en la Unión Europea”. [Mensaje en Blog]. Recuperado de Discriminación por nacionalidad en la búsqueda digital de empleo en la Unión Europea (uoc.edu).

92 Analizada esta cuestión por nuestra doctrina laboral (así, GINÈS I FABRELLES, A.: “Sesgos de género en el uso de la IA en el ámbito del trabajo”. [Vídeo] op.cit.) se detecta que empresas como Amazon, IBM, Uber emplean sistemas de reconocimiento facial que dificultan el reconocimiento a determinadas personas. En concreto, IBM presentaba un porcentaje de error del 35% frente al 0,8% de hombres blancos. La razón es que el algoritmo está entrenado en función de los datos suministrados y en estos apenas hay presencia de mujeres de color, de ahí el resultado. Este efecto discriminatorio fue corregido hasta llegar al 17% en el caso de IBM. En el caso de Uber se excluyeron a personas transgénero porque el algoritmo no las reconocía.

93 En ocasiones, la discriminación es incluso anterior a la apertura del proceso de cobertura de vacante. Recuérdese, la STJCE de 10 de julio de 2008, C-54/07 (TJCE 2008/157) que resolvió la cuestión prejudicial suscitada por el órgano judicial competente belga. Se declara contario al Derecho a la Unión (concretamente a los postulados contenidos en el art. 8.1 Directiva 2000/43) “Las declaraciones públicas mediante las que un empleador da a conocer que, en el marco de su política de contratación, no empleará a trabajadores de determinado origen étnico o racial”. Estas aseveraciones que realizó en su momento el empleador bastan para “presumir la existencia de una política de contratación directamente discriminatoria”.

En la Sentencia antes indicada, se resuelve un supuesto en el que un empresario de nacionalidad y residencia belga manifiesta públicamente su intención de no contratar a personal extranjero, amparándose en su libertad empresarial y la convicción de que sus potenciales clientes no querrían relacionarse con su empresa si la imagen de esta venía representada por una persona extranjera. De esta forma, una de las conclusiones alcanzadas por el TJUE es que “El hecho de que un empleador declare públicamente que no contratará a trabajadores de determinado origen étnico o racial constituye una discriminación directa en la contratación, en el sentido del artículo 2, apartado 2, letra a) de la Directiva 2000/43/CE del Consejo, de 29 de junio de 2000”.

94 SERRANO FALCÓN, C.: “La selección a través de modelos de IA”. [Vídeo] en Jornada Discriminación Algorítmica laboral (1/diciembre/2021). UAB. Discriminación algorítmica laboral, jornada 1 dic 2021, UB – YouTube. La ponente puso de manifiesto estas tres circunstancias relativas a la ausencia de pronunciamientos judiciales, silencio de la norma estatal y de los convenios colectivos y escasas actuaciones inspectoras (doscientos sesenta actuaciones de enero a diciembre de 2019). En concreto, en relación a la Ley de Empleo se observa su tendencia -no solo en este particular aspecto- de no ofrecer respuesta a determinados interrogantes que surgen en torno a esta fase pre-inicial. Destacar -como lo hace la autora- la guía de la AEPD que versa sobre selección.

95 Es más ostensible cuando la convocatoria es pública el apreciar -a nuestro juicio- la lesión al derecho a la no discriminación; de un lado, porque la oferta es visible de forma general para todo el público (o al menos, el interesado), existen más medios para combatir esos abusos por cuanto la presencia sindical es más fuerte (por nacional) que en la empresa privada (sobre todo, si lo comparamos con sociedades unipersonales o de pequeña dimensión).

96 Esta decisión de acudir al algoritmo para seleccionar al trabajador futuro no es alcanzada exclusivamente por las empresas de grandes dimensiones. Este aspecto no es baladí porque da cuenta de las posibilidades potencialmente universales de discriminación. Si los algoritmos son empleados por todas las empresas, con independencia de cuál sea su dimensión, se universaliza el destinatario de la eventual discriminación.

La extensión del algoritmo por cuanto la empresa puede acudir a un servicio externo que se encargue de la contratación de la fuerza laboral (consultora, ETT, adquisición -incluido el alquiler- del sistema algorítmico) es una idea puesta de manifiesto por TODOLÍ SIGNES, A.: “Sesgos de género en el uso de la IA en el ámbito del trabajo”. [Vídeo] en Jornada Discriminación Algorítmica laboral (1/diciembre/2021). UAB. Discriminación algorítmica laboral, jornada 1 dic 2021, UB – YouTube).

97 SERRANO FALCÓN, C.: “La selección a través de modelos de IA”. [Vídeo], op.cit.

98 En ocasiones, la empresa solicitante es la que se dirige a los posibles candidatos. El inconveniente es que solo se dirigía a un grupo, lo que suponía una preselección de los potenciales candidatos “quirúrgica y aséptica” (siguiendo a RIVAS VALLEJO, P.).

99 OLARTE ENCABO, S.: “La aplicación de inteligencia artificial a los procesos de selección de personal y ofertas de empleo, impacto sobre el derecho a la no discriminación”, op.cit., pp. 92 y 93 en las cuales nos relata la práctica discriminatoria (ya corregida) llevada a cabo por Facebook por medio de la cual solo a determinadas personas que presentaban un perfil específico les era mostrada una oferta de empleo.

100 TODOLÍ SIGNES, A.: “Sesgos de género en el uso de la IA en el ámbito del trabajo”. [Vídeo] op.cit. De esta forma, el algoritmo llega a una serie de conclusiones en función de los datos suministrados que, en principio, no parecen tener una conexión directa con la información que tiene en consideración.

A la mente acude la muestra ofrecida por la profesora GINÈS I FABRELLES, A.: “Sesgos de género en el uso de la IA en el ámbito del trabajo”. [Vídeo] en Jornada Discriminación Algorítmica laboral (1/diciembre/2021). UAB. Discriminación algorítmica laboral, jornada 1 dic 2021, UB – YouTube). Gild es una empresa que básicamente elabora perfiles para empresas tecnológicas; ello le lleva a estar interesada no solo en la valoración curricular del candidato, sino también si existen posibilidades de que este se integre en la comunidad digital y la valoración del capital social e integración en la comunidad digital de las personas candidatas. Esta última información la extrae

conociendo si la persona en cuestión visita determinadas páginas webs. El algoritmo usado -que fue entrenado sobre una base de datos de más de 6 millones de personas- realizaba la siguiente inferencia: la persona con fuertes habilidades de programación realiza visitas a una página web concreta de cómic de manga japonés. Esta inferencia resulta discriminatoria, por cuanto las personas de sexo femenino no suelen visitar este tipo de páginas.

101 Tres son los tipos de sesgos que expone el profesor TODOLÍ SIGNES, A.: “Sesgos de género en el uso de la IA en el ámbito del trabajo”. [Vídeo]. op.cit. Los que infieren “ciertas características personales basadas en otros datos”, los que se refieren a “la propia construcción del algoritmo” y, por último, señala “Cuando un algoritmo está al mando, en general, las minorías estarán en desventaja”, aunque desde nuestro punto de vista estos últimos no son más que los efectos de los dos anteriores.

102 Vid. RIVAS VALLEJO, P.: La aplicación de la Inteligencia Artificial al trabajo y su impacto discriminatorio op.cit., pp. 241-246 bajo el epígrafe: “Selección algorítmica de candidaturas: métodos”.

103 MORENO CÁDIZ, S.: “Inteligencia Artificial en la selección de trabajadores. Técnicas utilizadas y evidencias empíricas” [Vídeo] en Jornada Discriminación Algorítmica laboral (1/diciembre/2021). UAB. Discriminación algorítmica laboral, jornada 1 dic 2021, UB – YouTube). Añade ejemplos concretos en su presentación en atención a las “técnicas de análisis de emociones”, “entrevistas digitales” y “gamificación o juegos profesionales”. Plataformas estudiadas: “WORCKET; ELENIUS, THE RECRUITER; SEEDUNK; HIRE VUE BUILDER; FACEBOOK”. Por su parte, RIVAS VALLEJO, P. (22 de junio de 2021). Discriminación algorítmica en el trabajo [Vídeo], op.cit. Analiza la técnica “para la selección de talento” empleada a través de WORCKET- que es capaz de trazar un retrato robot de las cualidades y aptitudes que definen al candidato idóneo en relación a cada empresa individualmente considerada. Ese análisis se efectúa con base a las decisiones que sobre contratación de personal ha tomado previamente la empresa.

104 Estas circunstancias, de las que querríamos incidir en el dato de “características psicológicas” son puestas de manifiesto por MERCADER UGUINA, J.R.: “Algoritmos: personas y números en el Derecho Digital del trabajo” que trae a colación lo que el actual Comité Europeo de Protección de Datos – antaño GT 29- a través de las ya citadas “Directrices sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del Reglamento 2016/679” expone. El Comité Europeo de Protección de Datos es un organismo independiente que tiene atribuida la misión de aplicación congruente de la normativa de protección de datos en los Estados miembros.

105 EUBANKS, V.: La automatización de la desigualdad. Herramientas de tecnología avanzada para supervisar y castigar a los pobres. 2ª Ed. Capitán Swing.2021. En la p. 89 ya apunta la discriminación que, con ocasión de las entrevistas digitales, pueden sufrir las personas sordas.

106 En 2014, Amazon, Inc. fue consciente de que para la captación de puestos técnicos se contrataban a candidatos-hombre, pues el algoritmo había sido entrenado con datos de los diez años anteriores en los que las contrataciones que finalmente se realizaron eran de varones. Entrenado, por tanto, con esta información, aprendió a interpretar que el trabajador ideal lo era de este sexo. Lo más llamativo es que cuando se detectó esta situación de discriminación (en 2015) no se pudo, a pesar de que se intentó, corregir al algoritmo, lo que le lleva a eliminarlo en 2017. Es sabido que, en la actualidad, sigue contando con un sistema a base de algoritmos para realizar sus procesos selectivos, aun cuando se desconoce cuál es el que concretamente se emplea. https://elpais.com/tecnologia/2018/10/11/actualidad/1539278884_487716.html [Fecha de consulta: 23/11/2021].

107 EGUILUZ CASTAÑEIRA, J.A.: “Desafíos  y retos que plantean las decisiones automatizadas  y los

perfilados para los derechos fundamentales”. Estudios de Deusto. Revista de Derecho Público 68 (2), p.

  1. Disponible en https://revista-estudios.revistas.deusto.es/article/view/1954/2418.

108 El ejemplo que emplea el autor, no obstante, adolece (a nuestro juicio) de subjetividad al presuponer que en todo caso la empresa se encuentra ubicada en el centro de la ciudad, en cuyo caso efectivamente es cierto que si lo que se valora es la puntualidad, el sector más castigado económicamente es el más susceptible de sufrir incumplimientos, pues no es aventurado pensar que la residencia -por cuestiones meramente económicas- no se situará en el centro de la ciudad.

109 Véase, SORIANO   ARNANZ, A.: “Decisiones automatizadas y discriminación: aproximación y

propuestas generales”, op.cit.

110 https://www.lamoncloa.gob.es/presidente/actividades/Documents/2021/200521-Estrategia_Espana_ 2050.pdf. Vid. P. 308: “2º frente: Actualizar y reforzar las políticas activas de empleo… Crear una plataforma digital estatal que funcione como un job marketplace que conecte a todos los demandantes de empleo con todas las ofertas a nivel nacional, tanto públicas como privadas. Esta plataforma se apoyará en el uso de Inteligencia Artificial, algoritmos de perfilado y datos masivos para mejorar la eficiencia de los emparejamientos laborales y aumentar la competencia y la productividad de la economía”.

111 Así, OLARTE ENCABO, S.: “La aplicación de la inteligencia artificial a los procesos de selección de personal y ofertas de empleo: impacto sobre el derecho a la no discriminación”. Documentación Laboral número 119. 2020. p. 85: “…sí es urgente establecer límites específicos a dicha libertad [se refiere a la libertad de empresa] cuando este derecho empresarial se ejercita con un soporte tecnológico que en la práctica permite al empresario conocer historiales médicos, situación familiar (pareja, hijos, separación, divorcio, custodia de menores), aficiones personales, hábitos tóxicos o saludables, tendencias sexuales…”

112 No es una idea nuestra que la opacidad es la responsable de que no se descubran fácilmente los comportamientos discriminatorios. Antes bien, esta circunstancia es la que ha sido puesta de manifiesto por nuestra doctrina científica y a la que acaso se ha intentado dar respuesta (aun cuando sea parcialmente) a través de la reforma e inclusión del nuevo apartado al art. 64 ET.

113 Así, el Anexo III recoge en el primer párrafo la “Identificación biométrica y categorización de personas físicas: a) sistemas de IA destinados a utilizarse en la identificación biométrica remota “en tiempo real” o “en diferido” de las personas físicas”. De igual modo, con traslación directa al ámbito de las relaciones laborales, también se trataría de sistema de IA de alto riesgo los que están dirigidos a “detectar el estado emocional de una persona física” (encuadrado este en los denominados “Asuntos relacionados con la aplicación de la ley”).

114 Por descender a un terreno concreto Google España ya emplea algoritmos retributivos, pero aun así, aunque sean una realidad innegable implantada, lo cierto es que “los instrumentos reguladores aprobados o en curso sobre la inteligencia artificial no prestan especial atención a los algoritmos de recursos humanos y específicamente al salario”. [Sesión de conferencia]. A través de su ponencia se nos ilustra sobre el panorama normativo interno y europeo (incluyendo, a las Directivas y normas citadas en el cuerpo del presente, al Programa de Europa Digital 2021-2027 y, específicamente el principio de transparencia que es el que sería aplicable a cualquier ámbito, máxima esta que también aparece en la Estrategia de la Unión Europea 2020-2025) que, aun cuando no contemple expresamente a los algoritmos retributivos, sí puede entenderse directamente aplicable a estos supuestos. La autora resalta la circunstancia -de la que tampoco fue ajena la Cumbre de Oporto de mayo de 2021- que no se aluda explícitamente a la inteligencia artificial.

115 A mero título de ejemplo, y recopilando también las aseveraciones de MOLINA NAVARRETE, C.: “Economía de datos, mercados digitales de empleo y gestión analítica de personas: retos para la transición a una «sociedad del e-trabajo decente»”, op.cit., p. 10. “La Sentencia del Tribunal Constitucional (STC) 61/2021, de 15 de marzo, que concede amparo a una trabajadora que no recibió la debida tutela judicial efectiva frente a su despido basado en una prueba tecnológica inconstitucional…O la Sentencia del Tribunal Supremo (STS), Sala de lo Contencioso- Administrativo, 557/2021, de 26 de abril, que precisa los límites de la potestad de la Administración empleadora en el ejercicio del control videográfico, exhibiendo una laxitud (no exige ni consentimiento ni información previa sobre el fin de control laboral, bastando con el conocimiento genérico de las cámaras). Más garantista se muestra la Sala de lo Penal (por ejemplo, STS, Sala de lo Penal, 328/2021, de 22 de abril confirma la condena a la pena de 1 año de prisión por un delito de revelación de secretos a un empresario que, en su afán [de] buscar una prueba eficaz de la deslealtad laboral, accedió al correo particular)”. Vid. FERNÁNDEZ GARCÍA, A.: “Trabajo, algoritmos y discriminación”, op.cit.

116 RIVAS VALLEJO, P.: La aplicación de la Inteligencia Artificial al trabajo y su impacto discriminatorio, op.cit.,

  1. 194. Señala que “Según los especialistas, existen en la actualidad cuatro tendencias en el monitoreo y vigilancia de los trabajadores: herramientas de predicción y señalización, datos biométricos y de salud, monitoreo remoto y seguimiento del tiempo, y gamificación y gestión algorítmica”.

117 MOLINA NAVARRETE, C.: Big data y relaciones laborales [Vídeo]. op.cit., Nos recuerda la necesidad de que los teletrabajadores tengan su propio sistema de evaluación.

118 Aun cuando nos centramos en la lesión al derecho a la no discriminación, no se puede descartar que se pueden a través de los algoritmos afectar a otros derechos. De hecho, el primero en resultar afectado es el relativo a la protección de datos (MUÑOZ RUIZ, A.B. (15/05/2019). “Registro de jornada y modernidad tecnológica: ¿cómo afecta al derecho fundamental de protección de datos de carácter personal de los empleados?” El Foro de Labos. https://www.elforodelabos.es/registro-de- jornada-y-modernidad-tecnologica-como-afecta-al-derecho-fundamental-de-proteccion-de-datos- de-caracter-personal-de-los-empleados/). El segundo derecho que puede quedar comprometido es el relativo a la intimidad. De hecho, siguiendo con el anterior autor podemos apreciar cómo el control al trabajador a través de sus huellas, podría desencadenar la invasión de los dos derechos anteriores. Destaca que en este caso concreto no sería necesario requerir previamente el consentimiento del trabajador, pese a que sería oportuno -recogiendo a este efecto la información de la AEPD- que el sistema de control no almacenase el dato.

119 Se trataba de un sistema de registro o control de la jornada previsto para los teletrabajadores que están “en todo momento conectado telefónica y digitalmente”. La Audiencia entiende que “el no permitir registrar pausas vulnera la dignidad del trabajador, que no es otra cosa que el derecho que tiene a ser tratado como una persona en todo momento, resulta contrario a la protección de [la] salud, y, aun cuando no se haya alegado, esta Sala a mayor abundamiento y “obiter dictae” considera que puede constituir una discriminación indirecta por razón de edad proscrita por el art. 17.1 del ET pues resulta indiscutible que esta práctica, aparentemente neutra, implica en la práctica un trato peyorativo a los trabajadores de más edad con respecto de los más jóvenes”.

120 MERCADER UGUINA, J. R. (2021). “Discriminación algorítmica y derecho granular: nuevos retos para la igualdad en la era del big data”, op.cit., p. 7. Este autor destaca que uno de los efectos positivos del fallo judicial estriba en que la discriminación en el acceso al trabajo no se hace depender de la calificación jurídica del vínculo de los prestadores de servicio, lo que a la postre supone la extensión en la comprensión del derecho a no ser discriminado con independencia del tipo de actividad prestacional que se lleve a cabo.

FERNÁNDEZ SÁNCHEZ, S.: “Frank, el algoritmo consciente de Deliveroo. Comentario a la Sentencia del Tribunal de Bolonia 2949/2020, de 31 de diciembre”. Revista de Trabajo y Seguridad Social. CEF núm. 457, pp. 179-193. “Cada domingo, los/las riders de Deliveroo recibían un mensaje donde se les informaba, en función del ranking, sobre la franja horaria en la que podían acceder a realizar las reservas de las sesiones de trabajo para la semana sucesiva. Así, cada lunes, los/las riders con mejor ranking reputacional accedían a la plataforma para realizar las reservas a las 11:00 de la mañana, los siguientes en el ranking accedían a las 15:00, mientras los que poseían una puntuación peor tenían que esperar hasta las 17:00 horas. Esto comportaba que las ocasiones de trabajo de los/las riders con una puntuación inferior se redujesen según avanzaban las franjas. De tal forma, Frank iba lentamente excluyendo del ciclo productivo a la persona repartidora que no aseguraba la disponibilidad”.

El rider se situaba en una posición fruto de la combinación de dos criterios: el primero relativo al número de ocasiones en las que el repartidor habiendo reservado una “sesión” finalmente no hace esta y el segundo cuántas veces el repartidor estaba disponible para llevar a cabo los pedidos durante el fin de semana (concretamente, desde las 20.00 horas del viernes a las 22.00 horas del domingo). El resultado servía para que el repartidor pudiera -o no- acceder a repartos.

Para determinar si la conducta empresarial era o no discriminatoria fue necesario conocer cómo se comportaba la plataforma y concretamente, cómo lo hacía el algoritmo. Pero dada la oscuridad de su funcionamiento, el acceso a esta información era prácticamente imposible, lo que redundaba a favor de los reclamantes, surgiendo de esta manera la sospecha (presunción) de discriminación.

La sentencia indica que “no se discute sobre la legitimidad del sistema en sí, ni del hecho de que se incentive la cancelación preventiva de las sesiones reservadas que no se pretenden realizar, sino solo el hecho de que la

eventual cancelación tardía o la falta de participación en la sesión de trabajo no cancelada no pueda justificarse por el rider sobre la base de comprobadas razones dotadas de relieve jurídico (la primera entre todas, pero no la única, el ejercicio del derecho de huelga constitucionalmente garantizado).” Con base en ello, FERNÁNDEZ SÁNCHEZ, S., expresa que la discriminación indirecta le otorga la posibilidad a la parte contraria (a la que se le imputa la discriminación) de que pueda justificar la medida o acción controvertida, exponiendo cuál es la finalidad legítima que se pretende. A diferencia de este tipo de discriminación, en la directa son contadas las razones que pueden emplearse para la justificación de la discriminación, concretamente, bajo “requisitos profesionales esenciales y determinantes” (art. 4 Directiva 2000/78 CE).

121 MERCADER UGUINA, J.R.: “Algoritmos: personas y números en el Derecho Digital del trabajo”, op.cit., nos ofrece ejemplos concretos: “chaqueta inteligente, reloj inteligente, etc.” y, a continuación, destaca el Dictamen 2/2017 del actual Comité Europeo de Protección de Datos para recordarnos a continuación cómo “los empresarios podrían además fomentar el uso de estos dispositivos durante el tiempo de ocio, para medir los patrones de sueño y los niveles de ejercicio, basándose en su posible vinculación con la productividad y con comportamientos ligados a la idea de empresa saludable […] Datos en relación con los cuales el RGPD establece como principio general la prohibición de tratamiento”.

122 MOLINA NAVARRETE, C.: “Economía de datos, mercados digitales de empleo y gestión analítica de personas: retos para la transición a una «sociedad del e-trabajo decente»”, op.cit., p. 7: “Se suele afirmar que, a diferencia de lo que sucedía en el siglo XX, la vigilancia y el control de las personas en general, y de las trabajadoras en particular, tiende a realizarse a través de formas en las que se las ve completamente, hasta incluso predecir conductas futuras, e incluso deseos, pero quienes son así controlados/as no tienen percepción de vigilancia, sino al contrario, de libertad (Byung-Chul, 2017)”.

123 Ejemplos a lo largo del globo tenemos. Así, por acudir a una noticia relativamente cercana al momento en que se redacta el presente, la protagonizó una empresa rusa de software (Xsolla) que en agosto de 2021 despidió a ciento cincuenta empleados (la plantilla estaba compuesta por cuatrocientos                                 cincuenta).       https://www.eleconomista.es/economia/noticias/11354137/08/21/Me- puede-despedir-un-algoritmo-por-ser-improductivo-teletrabajando-En-Rusia-ya-esta- pasando.html. [Fecha de consulta: 21 de diciembre de 2021]

124 OLARTE ENCABO, S.: “Los criterios retributivos y su modelación a través de la: propuestas de mejora”. [Vídeo]. op.cit. Destaca los datos que representa la brecha salarial, a saber: 2020: 22%, 2019: 19,5% y 2018: 21%. Si se observa, se comprueba cómo e 2019 disminuye el porcentaje en atención a la subida que experimentó el SMI de ese año (la mayor subida, al haberse incrementado en un 22%) que redundó especialmente en el colectivo femenino. Resalta, igualmente, que en 2021 volvemos a la situación previa, siendo probable que se supere el 22% en este año (en la UE el porcentaje medio es del 15%).

125 Ibídem. Téngase en cuenta que cuando el salario (o determinadas partidas salariales) se cuantifica valorando el desempeño del trabajador, los resultados obtenidos o cualquier otro tipo de parámetro, el algoritmo salarial se remite a su vez a otro u otros algoritmos que, a su vez, pueden presentar sesgos discriminatorios que se diluyen en esta cadena algorítmica. De ahí que, incluso esta autora, proponga como posible solución “la creación de algoritmos de control de los algoritmos”.

126 La no tan cercana STS de 25 de septiembre de 2018 (RJ 2018/4275) empleó un programa para evaluar a los trabajadores y extraer conclusiones sobre quiénes eran los que habían obtenido mejor valoración y quiénes eran los más versátiles, para extinguir las relaciones laborales -despido colectivo- de quienes no alcanzaban determinados umbrales. Se legitima, con ella, el sistema algorítmico Skill Competency Matrix, para la selección de las personas trabajadoras que serán objeto de un despido colectivo.

127 MOLINA NAVARRETE, C.: “Big data y relaciones laborales” [Vídeo], op.cit.

128 Eso es lo que sostiene OLARTE ENCABO S. “La aplicación de la inteligencia artificial a los procesos de selección de personal y ofertas de empleo: impacto sobre el derecho a la no discriminación” op.cit.,92 “… ya que en el mercado de trabajo tradicional, la lesión se limita a la fase de la elección, mientras que en el mercado on line la potencialidad discriminatoria se proyecta más ampliamente, incluso en la publicidad de la oferta de trabajo (cómo se presenta la oferta de trabajo a los posibles interesados) y en la preselección que comporta seleccionar quienes pueden o no visualizar una determinada oferta de trabajo”.

Entendemos que efectivamente las posibilidades de discriminar son cuantitativamente superiores a las del denominado mercado de trabajo tradicional, no obstante, la forma de presentar la oferta de trabajo aun cuando no se empleen medios de selección automatizada, también puede ser discriminatoria. Recuérdese -aunque no prosperara la pretensión de la parte actora- lo ocurrido con la convocatoria de Iberia en relación a la cobertura de plazas de auxiliar de vuelo y cómo a través de la misma se limitaba el acceso a determinadas personas que no tuvieran la edad requerida, la altura determinada (variando esta en función de si se era varón o mujer) y limitándose también a las personas que padecieran de miopía (más de dos dioptrías) y las que sufriendo este defecto visual en grado inferior al límite no portaban microlentillas. Sentencia del Tribunal Supremo de 27 de diciembre de 1999 (RJ 1999/10091).

Problemas también planteados en relación a la no discriminación de determinadas ofertas de empleo para el sector público o en el sector privado mostradas a través incluso de meras manifestaciones verbales en las que se infiere claramente la voluntad del empleador de no contratar a determinadas personas por la única y exclusiva circunstancia de no ser nacionales del país.

En definitiva, el riesgo de discriminar desde la propia configuración de la oferta de empleo siempre ha existido, no siendo fácil reconocerla, especialmente, en este estadio.

Así, nos alineamos con la reflexión que realiza RIVAS VALLEJO, P.: La aplicación de la Inteligencia Artificial al trabajo y su impacto discriminatorio, op.cit., p. 219 “¿Por qué crea la tecnología nuevos campos de discriminación? Esto no es totalmente cierto, pues aquella se limita a reproducir virtualmente la realidad social y con ello sus profundas desigualdades sociales”.

129 SORIANO ARNANZ, A.: “Decisiones automatizadas y discriminación: aproximación y propuestas generales”, op.cit., “…si a una persona le es negado el acceso a un bien o servicio o no se le escoge para un puesto de trabajo porque pertenece a un grupo desaventajado, o por otros elementos que se encuentran vinculados a la pertenencia al grupo, se le está negando la libertad. Es por ello que la protección de la igualdad debe también ser entendida como protección de la libertad

130 Véase, el Eurobarómetro sobre discriminación (mayo 2019) en el que se deja plena constancia de la percepción europea sobre la discriminación, siendo la etnia gitana el colectivo más perjudicado. Un resumen en castellano: https://www.gitanos.org/upload/95/84/eb_espanol.pdf [Fecha de consulta: 24/11/2021].

131 SÁEZ LARA, C.: “El algoritmo como protagonista de la relación laboral. Un análisis desde la perspectiva de la prohibición de discriminación”. Temas Laborales núm. 155/2020. P. 46. Nos desaconseja plantear el debate acerca de cuál es más discriminatorio la decisión humana o la automatizada La pregunta verdaderamente relevante es si el marco normativo actual resulta suficiente para evitar los efectos perversos que entraña esta particular forma de manifestación de la discriminación, en atención precisamente a los particulares rasgos que presenta. Desliza la autora la necesidad de enfocar este riesgo de discriminación no solo desde el punto de vista exclusivamente jurídico, sino también teniendo en cuenta los aspectos técnicos.

132 RIVAS VALLEJO, P. (22 de junio de 2021). “Discriminación algorítmica en el trabajo” [Vídeo]- op.cit.

133 COTINO HUESO, L.: “Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales”. op.cit., p. 138.

134 Vid. EUBANKS, V.: La automatización de la desigualdad. Herramientas de tecnología avanzada para supervisar y castigar a los pobres. op.cit. A lo largo de 259 páginas se nos relatan supuestos concretos por medio de los cuales la tecnología, los algoritmos vienen perjudicando a las clases más pobres y marginadas -a pesar de que la visión que se haya querido ofrecer sea justamente la contraria-. Estos perjuicios se han visto acentuados con la crisis económica, pues esta acentúa el riesgo de sometimiento a un control más férreo. De otra parte, la estandarización a la que nos lleva la inteligencia artificial y la respuesta automática a los distintos problemas cotidianos a través de los algoritmos no es exclusiva del mundo del empleo. La autora apuesta por promover la enseñanza de aquellas habilidades que la inteligencia artificial no puede conseguir (así, la curiosidad, el pensamiento crítico o la creatividad).

En su célebre novela 1984, George Orwell se equivocó en una cosa. El Gran Hermano no nos observa como individuos, sino como colectivo… Las personas de color, los migrantes, los grupos religiosos impopulares, las minorías sexuales, los pobres y otras poblaciones oprimidas y explotadas soportan una carga de control y rastreo muy superior a la de los grupos privilegiados” (op.cit., pp. 18 y 19).

135 COTINO HUESO, L.: “Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales”. Dilemata núm. 24. 2017. P. 138. Cita también a Barocas y Selbst 2016, 675,714.

136 EUBANKS, V.: La automatización de la desigualdad. Herramientas de tecnología avanzada para supervisar y castigar a los pobres. op.cit. p. 54: “Los defensores de la adopción de la automatización y los algoritmos por parte de los servicios sociales suelen describir la nueva generación de herramientas digitales como “disruptivas”. Explican que los datos masivos, el big data, agilizan los rígidos procesos burocráticos, estimulan la adopción de soluciones innovadoras y fomentan la transparencia. Pero cuando nos centramos en programas dirigidos específicamente a los pobres y la clase trabajadora, el nuevo régimen de análisis de dato tiene más de evolución que de revolución. Se trata, simple y llanamente, de una ampliación y continuación de unas estrategias de gestión de la pobreza moralistas y punitivas aplicadas desde la década de 1820”. Y aunque la autora se refiere a EEUU, no olvidemos cómo en nuestro país la gestión del ingreso mínimo vital también por medios algorítmicos se nos presentó como la panacea. La idea -MOLINA NAVARRETE, C.: Big data y relaciones laborales [Vídeo]- era que disponiendo de una ingente información previa, se identificarían las situaciones de necesidad real y así se podría otorgar la prestación a las personas que realmente estaban viviendo una realidad menesterosa, descartando a los individuos que no lo precisaban y sin que fuera necesario emplear para ello un exceso de recursos humanos. Se pensaba entonces en que más de cien mil familias no tendrían que acreditar nada porque se lo reconocerían de oficio. Lamentablemente la realidad ha desmentido ese objetivo tan encomiable.

137 Amparando la confidencialidad en los datos y el código, el Considerando 63 del RGPD, la Directiva 2016/943 de 8 de junio, del Parlamento Europeo y del Consejo, relativa a la protección de los conocimientos técnicos y la información empresarial no divulgados (secretos comerciales) contra su obtención, utilización y revelación ilícitas, art. 70 de la Propuesta de Reglamento del Parlamento Europeo y del Consejo de Inteligencia Artificial (21 de abril de 2021) y, en nuestro derecho interno el art. 133 de la Ley de Propiedad Intelectual (RDLeg. 1/96, de 12 de abril)

El posible acceso de los particulares, aun cuando pese sobre ellos una sospecha razonable de que existió violación en sus derechos (particularmente el de igualdad que hoy nos atañe), está vedado. Volviendo, de nuevo, a nuestra doctrina especializada, RIVAS VALLEJO, M.P: “Combatir la discriminación algorítmica a través de instrumentos jurídicos y formativos: la formación en perspectiva de género de los programadores y desarrolladores” [Ponencia] destaca las Sentencias de Ámsterdam de 11 de marzo de 2021 (C/13/689705 HA RK 20-258 C/13/687315; HA RK 20-302 C/13/692003/HA RK 20-302), en las que se declaran que “los conductores no tienen derecho a información relevante sobre el algoritmo”.

138 Siguiendo con RIVAS VALLEJO, P., nos manifiesta cómo la garantía del derecho a una explicación quedaría vacía de contenido si se ofrecieran datos que no son comprensibles para el trabajador. De ahí que propugne como estrategia que esa explicación que se ha de otorgar al trabajador sobre la razón de la decisión empresarial alcanzada, ha de ser inteligible. Vid. RIVAS VALLEJO, P. (22 de junio de 2021). “Discriminación algorítmica en el trabajo” [Vídeo]- op.cit.

139 Véase, art.135.c) Ley de Propiedad Intelectual (Real Decreto Legislativo 1/1996, de 12 de abril) dispone que “1.- El usuario legítimo de una base de datos, sea cual fuere la forma en que ésta haya sido puesta a disposición del público, podrá, sin autorización del fabricante de la base, extraer y/o reutilizar una parte sustancial del contenido de la misma, en los siguientes casos:…c) Cuando se trate de una extracción y/o reutilización para fines de seguridad pública o a efectos de un procedimiento administrativo o judicial”.

140 Que esta previsión no es la respuesta al problema ha sido destacada, entre otros, por Beltrán de HEREDIA RUIZ, I.: “La irrupción de los algoritmos en el Derecho del Trabajo”. [Vídeo]. op.cit.

141 SORIANO ARNANZ, A.: “Decisiones automatizadas y discriminación: aproximación y propuestas generales”, op.cit.

142 VALVERDE ASENCIO, A.J.: Implantación de sistemas de inteligencia artificial y trabajo. Bomarzo. 2020, p. 27: “… el algoritmo puede ayudar a la toma de decisiones; puede condicionarla si la empresa lo acepta como medio o instrumento para adoptarlas; incluso puede servir de instrumento para determinar concretamente ciertos aspectos en el ejercicio del poder de dirección; pero en ningún caso puede admitirse ninguna pretensión que supusiera la exculpación o inimputabilidad de la decisión empresarial basado en que es el algoritmo quien decide en el marco de ninguna relación contractual y, menos, la laboral”. La contundencia de esta afirmación es suficientemente expresiva por sí misma, sin que precise de matiz alguno.

143 DE LA QUADRA-SALCEDO FERNÁNDEZ DEL CASTILLO, T.: “Derechos fundamentales, democracia y mercado en la edad digital”. Derecho Digital e Innovación, núm. 2, Abril-Junio 2019, Ed. Wolters Kluwer. Versión digital. P. 3.

144 Esa llamada a la negociación colectiva es preconizada por la doctrina. Por todos, MOLINA NAVARRETE, C.: quien se pregunta si los algoritmos son, en realidad, condiciones de trabajo. Téngase en cuenta que si la respuesta es afirmativa, la negociación colectiva sería el instrumento natural para encauzar su regulación.

GARRIGUES GIMÉNEZ, A.: “Herramientas sindicales: la negociación colectiva”. [Ponencia]. Expone que la única solución para limitar a los algoritmos es la negociación colectiva.

La preocupación (y ocupación) sobre el algoritmo y la inteligencia artificial se extiende a los sindicatos. Así, a título de ejemplo, la Guía de Negociación Colectiva y Digitalización 2020 (septiembre) Cuadernos de Acción Sindical. CCOO. Disponible en af6e35ab004a61334480e3b2bcae0e93000001.pdf (ccoo.es).

145 FERNÁNDEZ GARCÍA, A.: “Intermediación laboral y discriminación”, op.cit., p. 18.

146 MERCADER UGUINA, J.R: “La regulación de los algoritmos”. [Debate online] op.cit. Llamada a la negociación colectiva de la que no es ajena la propia ley de protección de datos.

147 La propia Ley de Inteligencia Artificial le dedica un Título (Título IX) a contemplar los códigos de conducta.

148 La emisión de un juicio por un ser humano no está exenta de condicionantes que influyen en la decisión final. La intuición está presente en la mayor parte de los enjuiciamientos que hacemos y aunque este factor no pueda equipararse a la existencia de un sesgo que invalide el pronunciamiento final, sí que es cierto que ese “ruido” enturbia el resultado. KAHNEMAN, D., SIBONY, O. y SUNSTEIN, C.R.: Ruido. Un fallo en el juicio humano. Debate. 2021. A pesar de ello, no podemos alcanzar la conclusión -siguiendo a estos autores- de que los algoritmos sean la solución para garantizar, hoy por hoy, que las predicciones alcanzadas por ellos sean mejores decisiones.

149 MERCADER UGUINA, J. R. (2021). “Discriminación algorítmica y derecho granular: nuevos retos para la igualdad en la era del big data”. op.cit., p. 6. MOLINA NAVARRETE, C.: “«Duelo al sol» (digital). ¿Un algoritmo controla mi trabajo? Sí; a tu empresa también”. op.cit., p. 21 “-La garantía efectiva de no discriminación algorítmica, que requiere también de técnicas específicas (precaución, EIPD, etc.) no solo las comunes”.

150 El matiz que este autor expresa es relevante. No se trata de conocer el contenido del algoritmo que no discute sea de conocimiento exclusivo empresarial, sino “la lógica del algoritmo”, pues la transparencia es el método para descubrir la posible discriminación. MERCADER UGUINA, J.R.: La regulación de los algoritmos, op.cit. Es decir (MERCADER UGUINA, J. R.: “Algoritmos y derecho del trabajo”, op.cit., p. 65) “El responsable del tratamiento debe hallar formas sencillas de informar al interesado acerca de la lógica subyacente o los criterios utilizados para llegar a la decisión”, porque de lo que se trata es de que el interesado “entienda los motivos de la decisión”. De esta forma, se sitúa al lado de lo que preceptúa el informe del Consejo Económico Social Europeo en “Inteligencia Artificial: anticipar su impacto en el trabajo para garantizar una transición justa” (DOUE 6/12/2018) y particularmente el enunciado: “no consiste en revelar códigos, sino en hacer inteligibles los parámetros y criterios de las decisiones que se toman”.

En definitiva, siguiendo a este mismo autor (MERCADER UGUINA, J. R.: “Algoritmos y derecho del trabajo”. op.cit. p. 65) debe observarse la “garantía de minimización de los datos”.

151 Aspecto este destacado por la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones titulada “Generar confianza en la inteligencia artificial centrada en el ser humano” (Bruselas. 8/04/2019). Se recogen los siguientes “requisitos esenciales para una inteligencia artificial fiable”. Intervención y supervisión humana; solidez y seguridad técnicas; privacidad y protección de datos; transparencia (a fin de garantizar la “trazabilidad” y “explicabilidad); diversidad, no discriminación y equidad (para lo cual habrá de establecerse “equipos de diseño diversificados y crear mecanismos que garanticen la participación, en particular de los ciudadanos, en el desarrollo de la inteligencia artificial); bienestar social y medioambiental; rendición de cuentas.

 

Comparte en Redes Sociales:
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin
Print this page
Print

Deja un comentario

Top