{"id":4967,"date":"2022-04-30T08:00:15","date_gmt":"2022-04-30T06:00:15","guid":{"rendered":"http:\/\/grupo.us.es\/newiwpr\/?p=4967"},"modified":"2022-04-28T11:31:54","modified_gmt":"2022-04-28T09:31:54","slug":"algoritmos-y-discriminacion","status":"publish","type":"post","link":"https:\/\/grupo.us.es\/iwpr\/2022\/04\/30\/algoritmos-y-discriminacion\/","title":{"rendered":"Algoritmos Y Discriminaci\u00f3n"},"content":{"rendered":"<p style=\"text-align: right;\">MAR\u00cdA JOS\u00c9 ASQUERINO LAMPARERO<\/p>\n<p style=\"text-align: right;\"><em>Universidad de Sevilla<\/em><\/p>\n<h4>1.\u00a0 INTRODUCCI\u00d3N<\/h4>\n<p>Partiendo de la clarificaci\u00f3n de conceptos tales como algoritmo, inteligencia artificial y <em>big data <\/em>se pretende analizar la afectaci\u00f3n sobre un derecho concreto: el de no discriminaci\u00f3n.<\/p>\n<p>Estas herramientas caracter\u00edsticas de la nueva Edad que estamos viviendo son instrumentos valios\u00edsimos para cualquiera de los \u00e1mbitos sociales en los que nos desenvolvemos, y, por ende, tambi\u00e9n para el mundo de las relaciones laborales. No obstante, el empleo que se haga de ellos puede tener efectos perniciosos para la persona y afectar a derechos tales como el de su protecci\u00f3n de datos, su salud, integridad f\u00edsica, dignidad y, por supuesto, al derecho de igualdad.<\/p>\n<p>La circunstancia de que los algoritmos no sean transparentes y que, por lo tanto, sea complicado desentra\u00f1ar el criterio que se ha empleado para dise\u00f1ar aquellos, facilita las inmisiones y lesiones a derechos fundamentales de las personas.<\/p>\n<p>Descendamos al terreno de las relaciones laborales. Los algoritmos se pueden emplear en fases precontractuales y durante la vida o ejecuci\u00f3n del contrato. Pensemos en la siguiente situaci\u00f3n: una empresa (y, en este sentido es indiferente sus dimensiones) precisa cubrir un puesto de trabajo, para lo que abre un proceso de selecci\u00f3n. Las posibilidades que le brindan los algoritmos y la inteligencia artificial no son nimias; conseguir\u00e1 en un lapso relativamente breve valorar no solo innumerables curr\u00edculos, sino tambi\u00e9n cada dato que conste en la documentaci\u00f3n que reciba.<\/p>\n<p>Una vez contratado, las utilidades de la inteligencia artificial no desaparecen, pues puede ser el instrumento m\u00e1s \u00fatil para controlar los tiempos de trabajo, c\u00f3mo se est\u00e1 ejecutando la labor contratada (lo que, a su vez, puede tener efectos en la percepci\u00f3n de determinados complementos salariales) y, en definitiva, para tomar decisiones que afectan a la pervivencia del v\u00ednculo laboral que van m\u00e1s all\u00e1 de los incumplimientos laborales (as\u00ed, para examinar la concurrencia de las causas jur\u00eddicamente habilitantes para proceder a despidos objetivos por ineptitud sobrevenida o por causas econ\u00f3micas, t\u00e9cnicas y organizativas de la propia empresa).<\/p>\n<p>Pero en el empleo de estos sistemas por parte de la empresa -y en este sentido no ha de pensarse \u00fanicamente en las plataformas digitales- se corre un riesgo en el que querr\u00edamos poner nuestra atenci\u00f3n: la discriminaci\u00f3n por la forma en la que se tratan los datos. La lesi\u00f3n al derecho a la igualdad puede facilitarse por la introducci\u00f3n de sesgos antidiscriminatorios<sup>2<\/sup> que resultan harto complicado de ser vislumbrados <em>a priori <\/em>y, tambi\u00e9n dif\u00edciles de constatar una vez se ha producido su conculcaci\u00f3n.<\/p>\n<p>Pero, y aunque nuestra mirada se ha focalizado en el \u00e1mbito laboral, los que redactamos estas l\u00edneas no debemos ser tan ingenuos como para pensar que los efectos de la inteligencia artificial, y espec\u00edficamente de los algoritmos, se ci\u00f1en al escenario de las relaciones laborales, siendo tan solo una preocupaci\u00f3n (y ocupaci\u00f3n) de la doctrina laboralista<sup>3<\/sup> o propia del \u00e1mbito nacional o incluso europeo.<\/p>\n<p>Y en toda esta revoluci\u00f3n tecnol\u00f3gica hay que poner el acento en el cada vez m\u00e1s sencillo acceso a un mundo que antes se reservaba \u00fanicamente a los especialistas matem\u00e1ticos (en cada una de las vertientes) y que hoy est\u00e1 disponible para pr\u00e1cticamente cualquier sujeto por muy rudimentarios que sean los conocimientos inform\u00e1ticos que este (o nosotros) tenga\/mos.<\/p>\n<p>De igual forma, esta -si se nos permite- \u201cdemocratizaci\u00f3n\u201d del empleo de estos sistemas (espec\u00edficamente los algor\u00edtmicos) ha sido posible gracias a una disminuci\u00f3n significativa de los gastos de adquisici\u00f3n de instrumentos inform\u00e1ticos de todo tipo, sin olvidar los que suponen la conexi\u00f3n m\u00f3vil. Por supuesto, no podemos dejar de apuntar que el verdadero catalizador para que esta revoluci\u00f3n se produzca (la revoluci\u00f3n de los n\u00fameros) no es otra m\u00e1s que la que nos ofrece la conectividad a trav\u00e9s de internet, de la que es dif\u00edcil (por no decir imposible) escapar y que, de otro lado -y aunque suene redundante-, se ha abierto tambi\u00e9n a todas las personas, casi con independencia de su edad y, por supuesto, de otros condicionantes sociales-econ\u00f3micos.<\/p>\n<p>La universalidad subjetiva de los sistemas impulsados por la tecnolog\u00eda no nos hace entonar un canto de satisfacci\u00f3n por lo conseguido. Pues, a pesar de todo, no podemos olvidar que existe una brecha digital tremendamente significativa que tiene una serie de consecuencias en absoluto desde\u00f1ables. Simplificando: quien se queda fuera del universo virtual corre el riesgo (si se nos permite esta licencia) de ser expulsado de la realidad que viviremos en un futuro no muy lejano.<\/p>\n<p>De otro lado, la consideraci\u00f3n de que nos encontramos ante un entorno fuertemente globalizado (y con una clara proyecci\u00f3n intensificadora de este fen\u00f3meno) no hace m\u00e1s que contribuir a la expansi\u00f3n en la utilizaci\u00f3n de estas tecnolog\u00edas que facilitan el despliegue de las actividades econ\u00f3micas<sup>4<\/sup>.<\/p>\n<h4>2.\u00a0 UNA APROXIMACI\u00d3N CONCEPTUAL<\/h4>\n<p>La necesidad de escindir los conceptos que a continuaci\u00f3n pretendemos definir, aun cuando sea en l\u00ednea de aproximaci\u00f3n, ha sido destacada por la doctrina ocupada en el estudio de distintos saberes jur\u00eddicos <sup>5<\/sup>.<\/p>\n<h4><strong>2.1 Concepto de <em>big data<\/em><\/strong><\/h4>\n<p>La doctrina ha puesto de manifiesto que los datos son la fuente de mayor riqueza que existe hoy en d\u00eda<sup>6<\/sup>. Datos que servir\u00e1n, si son correctamente manejados, para discernir nuestros h\u00e1bitos de consumo, desde los m\u00e1s cotidianos o diarios a aquellos que se refieren a cuestiones tan trascendentales como la salud, pasando por aquellos otros que aun cuando sean superficiales, tambi\u00e9n nos definen como consumidores<sup>7<\/sup>.<\/p>\n<p>En una primera aproximaci\u00f3n, el t\u00e9rmino, parece remitirnos a la idea de (traducimos tosca y literalmente) \u201cgrandes datos\u201d. La necesidad humana de recabar datos, de obtener y procesar informaci\u00f3n no es caracter\u00edstica propia del ser humano del siglo XXI. Desde el comienzo de los tiempos hemos sentido esa llamada. Lo que s\u00ed, l\u00f3gicamente, ha cambiado sustancialmente ha sido tanto la forma a trav\u00e9s de la cual obtenemos la informaci\u00f3n como la manera en que la procesamos<sup>8<\/sup>.<\/p>\n<p>Es, precisamente en este punto, cuando introducimos el t\u00e9rmino de <em>big data <\/em>o si castellanizamos la expresi\u00f3n, el de macrodatos. Y as\u00ed, aunque existan antecedentes remotos que nos hacen remontarnos hasta la Segunda Guerra Mundial y, concretamente, a Alan Turing y su proyecto para descifrar el C\u00f3digo Enigma, habremos de esperar a 1989 para que, con la generalizaci\u00f3n de internet, se abra la senda del <em>big data <\/em>o lo que es lo mismo la generaci\u00f3n masiva de los datos<sup>9<\/sup>.<\/p>\n<p>De la propia literalidad del t\u00e9rmino (<em>big data<\/em>) ya se pueden extraer parte de sus caracter\u00edsticas. Se trata, en primer lugar, de datos en cantidades ingentes; es tal su cuant\u00eda que es imposible (al menos con la capacidad humana actual) procesar o clasificar la informaci\u00f3n suministrada. A la nota anterior hay que a\u00f1adirle la circunstancia de que esos datos son variados; se refieren a aspectos variopintos de la realidad y acaso por ello, han de proceder de diferentes fuentes de informaci\u00f3n.<\/p>\n<p>Estos datos se transmiten (tercer car\u00e1cter) velozmente y esa velocidad es la que propicia internet, instrumento sin el cual no podr\u00edamos comprender los macrodatos que cambian vertiginosamente. La volatilidad de los datos nos remite, a su vez, a la idea de la permanente actualizaci\u00f3n de la informaci\u00f3n. Precisamente esa agilidad consigue que la informaci\u00f3n no sea obsoleta<sup>10<\/sup> y pueda, por ello, ser \u00fatil.<\/p>\n<p>Siendo estas sus caracter\u00edsticas intr\u00ednsecas, realmente lo sorprendente es que esos datos por s\u00ed mismos nada aportan, pero su combinaci\u00f3n, el aprovechamiento a partir de su almacenamiento s\u00ed llega a ofrecer a aquel que los interpreta una fuente de conocimiento valios\u00edsima, m\u00e1xime cuando la informaci\u00f3n que suministran los datos (y aqu\u00ed se encuentra la mayor debilidad y a la par su m\u00e1xima fortaleza) puede servir para, incluso, predecir conductas futuras.<\/p>\n<p>En definitiva, aunque los datos almacenados sean en cantidad ingente lo cierto es que aisladamente nada aportan. Por supuesto, los datos son la materia prima del conocimiento; precisamente por esta raz\u00f3n, se hace necesario su tratamiento, as\u00ed como su an\u00e1lisis y este proceso de interrelaci\u00f3n est\u00e1 tambi\u00e9n presente en el concepto de <em>big data<\/em>. De esta forma, la actuaci\u00f3n primera que hay que acometer es desechar la informaci\u00f3n que nada aporta para seleccionar la que s\u00ed es capaz de generar un conocimiento efectivo y relevante. Esta es la funci\u00f3n de la \u201c<em>miner\u00eda de datos<\/em>\u201d<sup>11<\/sup> que, aplicada al mundo de las relaciones laborales puede ser muy \u00fatil para conocer cu\u00e1les son los candidatos m\u00e1s id\u00f3neos para desempe\u00f1ar un puesto de trabajo concreto (selecci\u00f3n de personal), establecer graduaciones entre los trabajadores que tienen encomendadas las mismas tareas profesionales (evaluaci\u00f3n del desempe\u00f1o), examinar pormenorizadamente los niveles de absentismo de un colectivo o de particulares trabajadores y, en definitiva, de inferir, a partir del manejo de los datos, qu\u00e9 tipo de reacci\u00f3n empresarial se desencadenar\u00e1 a la vista de la informaci\u00f3n resultante.<\/p>\n<p>Junto a ello tienen la virtualidad de conseguir, en funci\u00f3n del patr\u00f3n dominante observado en el trabajador (o del candidato), cu\u00e1l ser\u00e1 su respuesta futura ante determinadas situaciones y \u00f3rdenes empresariales, lo que -a su vez- es susceptible de condicionar las decisiones de la empresa tanto en el momento de su contrataci\u00f3n, como para conceder incentivos o desplegar la facultad sancionadora, llegando a su m\u00e1xima expresi\u00f3n que, como es sabido, es el despido y todas estas actuaciones que vienen refrendadas por los datos, por los algoritmos; en definitiva por la m\u00e1quina que alimentada por esos patrones alcanza conclusiones, dando lugar as\u00ed a la denominada inteligencia artificial.<\/p>\n<p>As\u00ed pues se observa c\u00f3mo el <em>big data <\/em>no se circunscribe a una faceta concreta de las relaciones laborales. Por el contrario -y tal como ha sido puesto de manifiesto por nuestra doctrina cient\u00edfica- afecta \u201c<em>antes incluso de que haya contrato<\/em>\u201d y esa \u201c<em>dimensi\u00f3n transversal<\/em>\u201d<sup>12<\/sup> supone que irradie sus efectos no solo a la dimensi\u00f3n netamente individual del contrato de trabajo, sino tambi\u00e9n a la colectiva abarcando incluso aspectos relativos a la Seguridad Social<sup>13<\/sup>.<\/p>\n<p>Pero esta aspiraci\u00f3n de utilizaci\u00f3n de los macrodatos para interpretar conductas y predecirlas ya hab\u00eda sido observada con cautela por parte del Consejo de Europa que, preocupado por procurar el m\u00e1ximo respeto a los derechos humanos, y acaso especialmente a la dignidad, adopt\u00f3 el 28 de enero de 1981 el Convenio para la protecci\u00f3n de las personas con respecto al tratamiento automatizado de datos de car\u00e1cter personal (Convenio 108) y que m\u00e1s tarde (18 de mayo de 2018) ser\u00eda revisado para su actualizaci\u00f3n, siendo esta \u00faltima versi\u00f3n la que precisamente introduce las tres \u201cV\u201d que servir\u00e1n para calificar el <em>big data <\/em>(velocidad, volumen y variedad, t\u00e9rminos estos a los que hemos aludido al principio del presente).<\/p>\n<p>En definitiva, siguiendo a Molina Navarrete, \u201c<em>big data es el sue\u00f1o de Sherlock Holmes<\/em>\u201d<sup>14<\/sup> que persigue \u201c<em>la optimizaci\u00f3n de los riesgos econ\u00f3micos y jur\u00eddicos<\/em>\u201d.<\/p>\n<h4>2.2.\u00a0 Concepto de algoritmo<\/h4>\n<p>Si acudimos a la Carta \u00c9tica Europea sobre el uso de la Inteligencia Artificial en los sistemas judiciales y su entorno de 4 de diciembre de 2018<sup>15<\/sup>, el algoritmo queda definido en el glosario como \u201c<em>una secuencia finita de reglas formales (operaciones e instrucciones l\u00f3gicas) que permiten obtener un resultado de la entrada inicial de informaci\u00f3n. Esta secuencia puede ser parte de un proceso de ejecuci\u00f3n automatizado y aprovechar modelos dise\u00f1ados a trav\u00e9s del aprendizaje autom\u00e1tico<\/em>\u201d<sup>16<\/sup>.<\/p>\n<p>Aunque hayamos destacado este concepto por integrar todos los requisitos de partida con los que contamos para la elaboraci\u00f3n del presente, ciertamente existen otros conceptos elaborados por nuestra doctrina cient\u00edfica dignos de ser tenidos en consideraci\u00f3n<sup>17<\/sup>.<\/p>\n<p>Vayamos atr\u00e1s y centremos nuestra mirada en el aprendizaje a trav\u00e9s del algoritmo. Ese aprender (en el sentido m\u00e1s cl\u00e1sico del t\u00e9rmino, esto es, sin abarcar cualidades que -al menos hoy por hoy- son netamente humanas y que formar\u00edan parte del aprendizaje emocional e incluso de la adquisici\u00f3n de competencias) no es uniforme, no es el mismo en todos los supuestos. Conscientes de la complejidad del proceso de aprendizaje, la literatura cient\u00edfica ha escindido entre sus diferentes tipos. As\u00ed, nos encontramos ante el aprendizaje autom\u00e1tico<sup>18<\/sup>, el denominado aprendizaje profundo y tambi\u00e9n el aprendizaje de refuerzo.<\/p>\n<p>El aprendizaje profundo<sup>19<\/sup> es m\u00e1s \u201cpeligroso\u201d<sup>20<\/sup> que el simple aprendizaje autom\u00e1tico, por cuanto si el sistema es aut\u00f3nomo para establecer las relaciones de conexi\u00f3n entre los datos y ofrecer (esto es lo verdaderamente inquietante) una pauta sobre lo que el individuo va a hacer en el futuro (esto es, predice el futuro), las posibilidades son inmensas. De un lado, porque la persona cuando ofrece sus datos (o son recopilados estos porque, sin saberlo ha prestado consentimiento a su cesi\u00f3n desconociendo, por el imbricado lenguaje empleado o por pereza mental, si se quiere, para qu\u00e9 son destinados) no se detiene (no nos detenemos) a pensar que esos datos son los que nos definir\u00e1n (con exclusi\u00f3n de otros), proyectar\u00e1n una imagen de nosotros mismos y, volvemos a lo peligroso, ofrecer\u00e1n un patr\u00f3n de nuestra conducta de futuro.<sup>21<\/sup><\/p>\n<p>A pesar de ello, creemos que aplicadas las consideraciones anteriores al mundo de las relaciones laborales, es -desde el punto de vista empresarial- una leg\u00edtima aspiraci\u00f3n el contar con estos algoritmos predictivos (o sistemas de aprendizaje profundo<sup>22<\/sup>), por lo que la soluci\u00f3n en la pr\u00e1ctica no puede venir dada por cercenar su uso, sino por la implantaci\u00f3n de cautelas a fin de que este sea respetuoso con los derechos humanos y, particularmente, con el derecho al que atendemos nuestra mirada: el relativo a la no discriminaci\u00f3n.<\/p>\n<p>El, por ahora, \u00faltimo nivel de aprendizaje si continuamos con la exposici\u00f3n doctrinal<sup>23<\/sup>, es el aprendizaje por refuerzo que permite la obtenci\u00f3n de \u201c<em>la mejor decisi\u00f3n sobre un conjunto de variables y opciones<\/em>\u201d<sup>24<\/sup>, incluyendo por tanto una valoraci\u00f3n.<\/p>\n<p>Llegados a este punto, es relevante traer a la memoria la diferencia -resaltada por nuestra doctrina<sup>25<\/sup>&#8211; entre los dos tipos de algoritmos existentes. De un lado tenemos los \u201c<em>algoritmos de arriba-abajo<\/em>\u201d y los \u201c<em>algoritmos de abajo-arriba<\/em>\u201d; en el primer caso, el ser humano controla el algoritmo permanentemente en todas sus secuencias; en el segundo caso -los verdaderamente revolucionarios- \u201c<em>los programadores crean meta-algoritmos que son capaces de crear algoritmos que, cuando detectan un error, ellos mismos se corrigen<\/em>\u201d.<\/p>\n<h4>2.3.\u00a0 Concepto de inteligencia artificial<\/h4>\n<p>Este es, de todos los conceptos que empleamos, el m\u00e1s d\u00factil. Se trata de una expresi\u00f3n que, lejos de permanecer inmutable, va a ir sufriendo los embates del tiempo, en parte porque desconocemos sus reales posibilidades de proyecci\u00f3n futura y, tambi\u00e9n, por cuanto el propio concepto de inteligencia (artificial o no) ha experimentado alteraciones en orden a la determinaci\u00f3n de su comprensi\u00f3n y alcance<sup>26<\/sup>.<\/p>\n<p>No obstante, de entre todas las posibilidades<sup>27<\/sup> acudiremos a la Carta \u00c9tica Europea sobre el uso de la Inteligencia Artificial en los sistemas judiciales y su entorno de 4 de diciembre de 2018. La inteligencia artificial queda definida por el \u201c<em>conjunto de m\u00e9todos, teor\u00edas y t\u00e9cnicas cient\u00edficas cuyo objetivo es reproducir, mediante una m\u00e1quina, las habilidades cognitivas de los seres humanos<\/em>\u201d<sup>28<\/sup>.<\/p>\n<p>Ante ello, la inteligencia artificial engloba el \u201c<em>aprendizaje autom\u00e1tico, razonamiento, programaci\u00f3n y rob\u00f3tica<\/em>\u201d<sup>29<\/sup>, entendiendo que ese aprendizaje autom\u00e1tico incluye tanto el aprendizaje profundo<sup>30<\/sup> como el de refuerzo y junto a ello el denominado \u201c<em>razonamiento autom\u00e1tico, incluidas la planificaci\u00f3n, la programaci\u00f3n, la representaci\u00f3n del conocimiento y el razonamiento, la b\u00fasqueda y la optimizaci\u00f3n<\/em>\u201d<sup>31<\/sup> y todos estos procesos han de estas presididos por los principios de \u201c<em>proporcionalidad e inocuidad, seguridad y protecci\u00f3n, equidad y no discriminaci\u00f3n, sostenibilidad, derecho a la intimidad y protecci\u00f3n de datos, supervisi\u00f3n y decisi\u00f3n humanas, transparencia y explicabilidad, sensibilizaci\u00f3n y educaci\u00f3n, responsabilidad y rendici\u00f3n de cuentas, gobernanza y colaboraci\u00f3n adaptativas y de m\u00faltiples partes interesadas<\/em>\u201d<sup>32<\/sup>.<\/p>\n<p>Si descendemos a la realidad cotidiana, seamos m\u00e1s o menos conscientes de ello, son m\u00faltiples los ejemplos cotidianos del uso de la inteligencia artificial<sup>33<\/sup>, consider\u00e1ndose inteligencia artificial los programas inform\u00e1ticos<sup>34<\/sup> que empleamos, siendo la clave de esta, la adaptabilidad continua.<\/p>\n<p>De esta manera, nutrida de datos, la inteligencia artificial podr\u00e1 \u201c<em>aprender y descubrir incluso relaciones sutiles<\/em>\u201d entre estos<sup>35<\/sup>.<\/p>\n<h4>3.\u00a0 EUROPA ANTE LOS ALGORITMOS<\/h4>\n<p>Los usos y la virtualidad de los algoritmos en las diferentes dimensiones de la realidad humana<sup>36<\/sup> han procurado su atenci\u00f3n mundial, lo que a su vez ha propiciado el di\u00e1logo entre los diferentes pa\u00edses del globo para ahondar en su conocimiento, proyecci\u00f3n y posibilidades<sup>37<\/sup>.<\/p>\n<p>La UE entiende que el empleo de los algoritmos lejos de resultar perjudicial en concreto para las relaciones laborales, puede entra\u00f1ar una serie de ventajas en absoluto desde\u00f1ables. Ventajas estas que comenzando en el acceso m\u00e1s igualitario al trabajo, pasan por una mejora cualitativa de la salud laboral y, por supuesto, de las condiciones laborales en general. A pesar de esas repercusiones positivas<sup>38<\/sup>, no desconoce los riesgos de diversa \u00edndole que existen<sup>39<\/sup> y la necesidad espec\u00edfica de garantizar el respeto a los derechos humanos.<\/p>\n<p>En clave europea, nos encontramos -a\u00fan en fase de propuesta- con una norma que versa sobre la inteligencia artificial a nivel europeo, en la que se dedica especial atenci\u00f3n a su vertiente \u00e9tica. Se trata de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial y se modifican determinados actos legislativos de la Uni\u00f3n de fecha 21 de abril de 2021 y que, a partir de este momento, enunciaremos gen\u00e9ricamente con la expresi\u00f3n simplificada de Ley de Inteligencia Artificial.<\/p>\n<p>Esta norma parece mostrarse especialmente preocupada por las posibilidades que entra\u00f1an los sistemas de inteligencia artificial, y dada la probabilidad de que determinados usos encierren un encubierto pero real ataque a valores connaturales al ser humano, procede a prohibir determinadas pr\u00e1cticas<sup>40<\/sup>.<\/p>\n<p>Esa preocupaci\u00f3n, tambi\u00e9n le lleva a calificar a determinados sistemas como de alto riesgo y, tras las consideraciones que menciona en el art.6<sup>41<\/sup>, realiza una enumeraci\u00f3n a trav\u00e9s del Anexo III de los concretos sistemas que quedan englobados bajo esta categorizaci\u00f3n<sup>42<\/sup>. Tras ellos, nos encontramos con las denominadas \u201c<em>obligaciones de transparencia para determinados sistemas de IA<\/em>\u201d, b\u00e1sicamente, pueden inducir en confusi\u00f3n al usuario o desconocimiento sobre la informaci\u00f3n que se est\u00e1 extrayendo<sup>43<\/sup>.<\/p>\n<p>Por \u00faltimo, cuando los sistemas no quedan englobados en ninguno de los apartados anteriores, se recoge una serie de normas de conducta aplicables a ellos<sup>44<\/sup>.<\/p>\n<p>Examinados cada uno de los preceptos sobre esta clasificaci\u00f3n, la doctrina<sup>45<\/sup> pone de manifiesto que si nos centramos en el sistema de relaciones laborales la mayor parte de los usos en torno a los sistemas de inteligencia artificial son de riesgo alto<sup>46<\/sup>, sobre los que gravitan ciertas obligaciones que afectan a distintos intervinientes. Estos mandatos nos recuerdan a las normas que sobre seguridad y salud se plantean en el \u00e1mbito de la prevenci\u00f3n de riesgos laborales, siendo predicables tanto sobre los proveedores<sup>47<\/sup> como sobre los usuarios<sup>48<\/sup>.<\/p>\n<p>Y, tras la lectura de esta Ley de Inteligencia Artificial, aparecen las cr\u00edticas. De un lado, por no haberse garantizado la presencia de los representantes de los trabajadores (dimensi\u00f3n colectiva en atenci\u00f3n al control de estos sistemas) y de otro por no haber contemplado una serie de medidas espec\u00edficas en el \u00e1mbito laboral<sup>49<\/sup>.<\/p>\n<p>Otra de las preocupaciones presentes en el \u00e1mbito europeo es la oscuridad bajo la cual se nos presentan los sistemas algor\u00edtmicos. Atendiendo a esta inquietud, el Consejo de Europa ha adoptado cinco m\u00e1ximas que deben inspirar su utilizaci\u00f3n y que se encuentran contempladas en la Carta \u00e9tica europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno<sup>50<\/sup>. De esta forma, se destaca el principio de respeto de los derechos fundamentales, el de no discriminaci\u00f3n, el relativo a la calidad y seguridad, el de transparencia<sup>51<\/sup> y, por \u00faltimo, el atinente al control del usuario<sup>52<\/sup> .<\/p>\n<p>El Consejo Econ\u00f3mico y Social Europeo tampoco es ajeno al avance imparable de la inteligencia artificial, mostr\u00e1ndose preocupado porque los nuevos sistemas no anulen la voluntad y porque se garantice que la decisi\u00f3n final recaiga en todo caso sobre el ser humano<sup>53<\/sup>.<\/p>\n<p>Pero, y aunque en primera instancia quer\u00edamos recoger el esfuerzo llevado a cabo por entes internacionales -y particularmente entidades europeas- en torno a la digitalizaci\u00f3n, no podemos dejar de anotar la reflexi\u00f3n del profesor Goerlich, en torno a otro instrumento al que debemos hacer referencia: el Acuerdo Marco europeo sobre digitalizaci\u00f3n, alcanzado por los interlocutores sociales CES, Business Europe, SME United, y CEEP, as\u00ed como por EUROCADRES\/CEC)<sup>54<\/sup>. Partiendo de que \u201c<em>la tecnolog\u00eda representa un desaf\u00edo y una amenaza para ambas partes contractuales<\/em>\u201d (espec\u00edficamente trabajador y empresario) no podemos olvidar c\u00f3mo el proceso de digitalizaci\u00f3n y el nivel de implantaci\u00f3n de esta no es homog\u00e9neo en todos los estados -ni siquiera en los europeos-. Esa idiosincrasia de las naciones tambi\u00e9n ha de ser tenida en cuenta a la hora de dise\u00f1ar un marco normativo<sup>55<\/sup> y enlaza con la idea anterior de que la futura Ley de Inteligencia Artificial no puede descender a detalles concretos, sino tan solo esbozar un marco com\u00fan.<\/p>\n<p>Un aspecto a destacar que nos parece relevante (acaso de suma obviedad para el lector paciente): toda esta amalgama de normas pone de manifiesto c\u00f3mo el uso consciente, medido y respetuoso de la inteligencia artificial (y todo lo que detr\u00e1s de ella existe) es una preocupaci\u00f3n europea. Los sistemas empleados son universales y los problemas que se plantean tambi\u00e9n.<\/p>\n<h4>4.\u00a0 EL DERECHO DEL TRABAJO ESPA\u00d1OL ANTE LOS ALGORITMOS<\/h4>\n<p>Aun cuando carecemos, por el momento, de una norma legal que de forma interna aborde el empleo de la inteligencia artificial<sup>56<\/sup>, s\u00ed que existe toda una amalgama de instrumentos normativos que pueden -deben- ser tenidos en cuenta cuando acudimos a los algoritmos para desplegar el haz de facultades empresariales que conforman el poder de direcci\u00f3n.<\/p>\n<p>Situados concretamente en el Derecho del Trabajo, y teniendo en cuenta la afirmaci\u00f3n que lleva a Molina Navarrete a afirmar que \u201c<em>todo lo interesante que est\u00e1 pasando en las relaciones laborales est\u00e1 fuera del Estatuto de los Trabajadores<\/em>\u201d<sup>57<\/sup>, no podemos pasar por alto que la norma b\u00e1sica laboral no ha sido ajena a la irrupci\u00f3n de los algoritmos y de ello da cuenta el actual art.64.d)<sup>58<\/sup> que recoge el derecho de los representantes de los trabajadores a \u201c<em>Ser informado(s) por la empresa de los par\u00e1metros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboraci\u00f3n de perfiles<\/em>\u201d<sup>59<\/sup>.<\/p>\n<p>De otro lado, no se observa una preocupaci\u00f3n generalizada por parte de la negociaci\u00f3n colectiva a abordar aspectos relacionados con la implantaci\u00f3n de los algoritmos, habiendo tan solo encontrado seis convenios colectivos en los que se aborda de forma m\u00e1s o menos tangencial esta cuesti\u00f3n<sup>60<\/sup>.<\/p>\n<p>Merece la pena destacar, porque denota una preocupaci\u00f3n en torno a su abordaje y por la exhaustividad en su tratamiento, el tratamiento que se realiza por parte de la Agencia Espa\u00f1ola de Protecci\u00f3n de Datos sobre <em>big data<\/em>, a trav\u00e9s de un c\u00f3digo de buenas pr\u00e1cticas que tampoco se olvida de los algoritmos con la atenci\u00f3n focalizada en el ser humano<sup>61<\/sup>.<\/p>\n<p>Una \u00faltima reflexi\u00f3n a modo de cierre del presente ep\u00edgrafe. Si intentamos trascender por un momento y situarnos en el plano de la elucubraci\u00f3n te\u00f3rica para acercarnos a una conclusi\u00f3n que nos permita valorar en qu\u00e9 medida afectar\u00e1 al mundo del trabajo la automatizaci\u00f3n intensificada, se observa c\u00f3mo no es posible entablar un debate totalmente desprovisto de consideraciones \u00e9ticas o morales, que nos influir\u00e1n a adoptar conclusiones pesimistas<sup>62<\/sup> o, justamente las contrarias<sup>63<\/sup>. De cualquier forma, tambi\u00e9n se se\u00f1ala que todas las ocupaciones laborales no resultar\u00e1n afectadas en igual medida, existiendo determinadas profesiones m\u00e1s susceptibles que otras en las que los humanos podemos ser reemplazados con mayor facilidad<sup>64<\/sup>.<\/p>\n<h4>5. UNA SUCINTA REFERENCIA A LA NORMATIVA ANTIDISCRIMINATORIA<\/h4>\n<p>Dado que hasta la fecha carecemos de postulados legales directos que incidan en la proscripci\u00f3n del derecho a la no discriminaci\u00f3n cuando se emplean los algoritmos, se hace necesario rescatar la normativa que con car\u00e1cter general contempla el derecho a la no discriminaci\u00f3n para tratar de casar esta con el empleo de los distintos mecanismos algor\u00edtmicos, especialmente en las relaciones laborales.<\/p>\n<p>Nada originales somos cuando destacamos, en lo que hace a nuestro arsenal normativo, al art.14 CE como plasmaci\u00f3n de la dignidad humana. Recordar tambi\u00e9n que esa proclamaci\u00f3n de igualdad se desprende del art.35 CE.<\/p>\n<p>Otros textos que merecen ser tenidos en consideraci\u00f3n vienen dados por la Ley 62\/2003, de 30 de diciembre, de medidas fiscales, administrativas y del orden social<sup>65<\/sup> y la Ley Org\u00e1nica 3\/2007 para la igualdad efectiva de mujeres y hombres <sup>66<\/sup> y referencias a los algoritmos, y la necesidad de que estos no sean discriminatorios, tambi\u00e9n nos las encontramos en textos como el Real Decreto 1069\/2021, de 4 de diciembre<sup>67<\/sup>.<\/p>\n<p>En la dimensi\u00f3n legal, y apegados al terreno laboral, acudimos a los art\u00edculos 4.2.c) y, por supuesto, el art. 17.1, ambos del Estatuto de los Trabajadores; la propia Ley de Empleo<sup>68<\/sup> (aun con las acertadas cr\u00edticas por parte de la doctrina iuslaboralista) y la Ley de Infracci\u00f3n y Sanciones del Orden Social<sup>69<\/sup> que representa la reacci\u00f3n normativa a los comportamientos transgresores.<\/p>\n<p>Por supuesto, la Uni\u00f3n Europea no ha permanecido ajena al problema que la desigualdad representa. Para lograr el objetivo de proscripci\u00f3n de la discriminaci\u00f3n, existen directivas que espec\u00edficamente promueven la igualdad racial (Directiva 2000\/43\/CE)<sup>70<\/sup>, la igualdad de trato en el empleo (Directiva 2000\/78\/CE), la de hombres y mujeres (2006\/54\/CE)<sup>71<\/sup>, igualdad de trato entre hombres y mujeres en el acceso a bienes y servicios (2004\/113\/CE), gravitando sobre la base de la distinci\u00f3n entre la forma de discriminaci\u00f3n directa o indirecta<sup>72<\/sup>.<\/p>\n<p>Temprana, contundente y coherente en las distintas Directivas antes enunciadas se nos definen las dos formas de discriminaci\u00f3n: directa e indirecta. De esta manera, se apreciar\u00e1 discriminaci\u00f3n indirecta cuando una disposici\u00f3n, criterio o pr\u00e1ctica aparentemente neutros pueda ocasionar una desventaja particular a personas con una religi\u00f3n o convicci\u00f3n, discapacidad, edad, orientaci\u00f3n sexual, origen racial o \u00e9tnico concreto respecto de otras personas, sin que exista una justificaci\u00f3n objetiva, pues no hay una finalidad leg\u00edtima. Todo ello, a salvo de que los medios para la consecuci\u00f3n de esta finalidad sean adecuados y necesarios<sup>73<\/sup>, para lo cual resulta de utilidad comprobar si existen otros caminos viables que incidan en menor medida en la m\u00e1xima de la igualdad de trato.<\/p>\n<p>Por el contrario, en la discriminaci\u00f3n directa una persona es tratada desfavorablemente en atenci\u00f3n a su sexo, g\u00e9nero, edad, raza, etnia, religi\u00f3n o creencia, salud, discapacidad u orientaci\u00f3n sexual.<\/p>\n<h4>6.\u00a0 ALGORITMOS, <em>BIG DATA <\/em>E INTELIGENCIA ARTIFICIAL ANTE LAS RELACIONES LABORALES<\/h4>\n<p>La revoluci\u00f3n tecnol\u00f3gica, la importancia de <em>big data<\/em>, de los algoritmos, de la inteligencia artificial tra\u00edda al mundo del trabajo<sup>74<\/sup> nos sorprende a los que venimos de otra \u00e9poca en la que las ideas antes referidas se pod\u00edan leer o ver en novelas y pel\u00edculas de ciencia ficci\u00f3n. No obstante, hagamos nuestra la pregunta de Molina Navarrete: realmente este nuevo mundo laboral \u00bfes tan diferente del anterior? Concretamente, \u00bfel empresario se mueve en la actualidad impulsado por otros intereses? Este autor compara estas nuevas t\u00e9cnicas y no puede m\u00e1s que concluir que el objetivo al que se dirigen estas no es m\u00e1s que lograr la rentabilidad de los recursos humanos, a trav\u00e9s -eso s\u00ed- de f\u00f3rmulas m\u00e1s depuradas, para seleccionar a los mejores candidatos, retener a los m\u00e1s cualificados talentos y procurar la salida de aquellos empleados que aportan menor valor a\u00f1adido<sup>75<\/sup>.<\/p>\n<p>Ciertamente, nos encontramos ante un nuevo sistema de gesti\u00f3n de recursos humanos que probablemente nos impulse a hablar de un nuevo modelo de relaciones laborales que se ha visto, de otro lado, propulsado por la crisis sanitaria desencadena por la COVID-19<sup>76<\/sup> y que -aparte de las manifestaciones trascendentales que hemos tratado de indicar en el p\u00e1rrafo anterior- tambi\u00e9n tiene su proyecci\u00f3n en aspectos tales como la asignaci\u00f3n a puestos de trabajo<sup>77<\/sup>, planteando nuevos problemas que merecen reflexiones detenidas para tratar de alcanzar las mejores soluciones dentro de las alternativas posibles que es, de otro lado, lo que pretenden los propios algoritmos.<\/p>\n<p>El problema no estriba en el uso de nuevas t\u00e9cnicas -en concreto de los algoritmos- para ser m\u00e1s eficientes en el plano de la gesti\u00f3n de los recursos humanos, sino en el riesgo que tenemos como humanos de pervertir estos sistemas algor\u00edtmicos, de tal forma que aparezcan los temidos sesgos o, por seguir en esta ocasi\u00f3n a nuestra RAE, \u201c<em>errores sistem\u00e1ticos en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras<\/em>\u201d. La aparici\u00f3n de estos sesgos, con el sentido antes indicado, se incrementa cuanto m\u00e1s sean los datos que maneja el algoritmo y las soluciones posibles tambi\u00e9n se multiplican en atenci\u00f3n a la cantidad de informaci\u00f3n que se suministra.<\/p>\n<p>La aplicaci\u00f3n de los algoritmos a las relaciones laborales es una realidad y la contemplaci\u00f3n de estos debe realizarse -a nuestro juicio- teniendo en cuenta que hemos de desechar la idea de que las m\u00e1quinas no discriminan<sup>78<\/sup>.<\/p>\n<p>T\u00e9ngase en cuenta que aunque nuestra mirada se proyecta hacia el mundo del trabajo, los algoritmos tejen su tela, expandi\u00e9ndose al sector p\u00fablico a fin de examinar conductas, predecir tambi\u00e9n perfiles que son m\u00e1s susceptibles de cometer fraudes y, tambi\u00e9n para ofrecer retratos robots susceptibles de ser los candidatos ideales para la obtenci\u00f3n de determinadas prestaciones p\u00fablicas<sup>79<\/sup>.<\/p>\n<p>En cualquier caso, uno de los derechos que puede resultar seriamente comprometido es el de no discriminaci\u00f3n. Tan es as\u00ed que incluso se ha introducido una expresi\u00f3n espec\u00edfica cuando este derecho lo conculca un algoritmo: \u201c<em>discriminaci\u00f3n algor\u00edtmica<\/em>\u201d<sup>80<\/sup> que es \u201c<em>la que se produce cuando un individuo o colectivo recibe un tratamiento arbitrario como consecuencia de la toma de decisiones automatizadas<\/em>\u201d<sup>81<\/sup> y \u201c<em>Ello ocurre porque el aire que respiran los algoritmos, los datos, puede encontrarse viciado por lo que las decisiones automatizadas resultantes se encontrar\u00e1n, igualmente, corrompidas<\/em>\u201d<sup>82<\/sup>.<\/p>\n<p>T\u00e9ngase presente que aunque nos centremos en el \u00e1mbito laboral, la conculcaci\u00f3n al derecho a la igualdad puede producirse en diferentes \u00f3rdenes jur\u00eddicos<sup>83<\/sup>.<\/p>\n<h4>7.\u00a0 PROCESOS DE SELECCI\u00d3N, ALGORITMOS Y DISCRIMINACI\u00d3N<\/h4>\n<p>Una de las funciones que tradicionalmente se viene atribuyendo al departamento de recursos humanos es la relativa al reclutamiento <sup>84<\/sup>, la selecci\u00f3n de aquel candidato que se acerca m\u00e1s y mejor a los ideales empresariales. Para llevar a cabo esta misi\u00f3n, en la actualidad, las personas encargadas de ese proceso tienen a su disposici\u00f3n multitud de informaci\u00f3n sobre los pretendientes a trabajador que, desde luego, trasciende a la que estos puedan verter en sus curr\u00edculos. Las mismas consideraciones se pueden exportar a las agencias de colocaci\u00f3n al realizar funciones de intermediaci\u00f3n laboral<sup>85<\/sup>.<\/p>\n<p>As\u00ed, el personal encargado de seleccionar a un candidato puede completar la informaci\u00f3n que este le suministra acudiendo a otras fuentes que tambi\u00e9n sirven, directa o indirectamente<sup>86<\/sup>, para vender nuestra fuerza laboral y que no siempre se circunscriben a la dimensi\u00f3n netamente profesional pero que pueden resultar relevantes a la hora de escoger a un trabajador<sup>87<\/sup>.<\/p>\n<p>En la medida en que la informaci\u00f3n se multiplica exponencialmente y no se halla condensada en un \u00fanico surtidor, el responsable de llevar a cabo el proceso de cobertura de la vacante se puede sentir abrumado, entre otras razones porque los datos sean inmanejables e imposibles de procesar por nuestro cerebro limitado.<\/p>\n<p>La soluci\u00f3n, no obstante, es sencilla. Aprovechemos las ventajas que nos ofrecen los algoritmos para ordenar la informaci\u00f3n, procesarla, desechar aquella que no es interesante a los fines pretendidos y una vez obtenida la que es relevante, contrastarla obteniendo as\u00ed -por v\u00eda de comparaci\u00f3n- al mejor candidato posible de todos los que se han postulado -directa o indirectamente- a ese proceso de selecci\u00f3n.<\/p>\n<p>De esta manera, si el humano define el perfil requerido para un puesto de trabajo (qu\u00e9 cualidades se precisan, qu\u00e9 tipo de aptitudes se requieren), los algoritmos har\u00e1n el resto. Esto es, podr\u00e1, en funci\u00f3n de los par\u00e1metros que le ofrezcamos, decidir cu\u00e1l es el trabajador id\u00f3neo<sup>88<\/sup>.<\/p>\n<p>Presentada as\u00ed esta idea puede llegarse a la conclusi\u00f3n inicial de que el proceso de toma de decisiones a trav\u00e9s de algoritmos es el m\u00e1s adecuado. Contempla toda la informaci\u00f3n de todos los candidatos y objetivamente selecciona el \u201cmejor\u201d. No se corren riesgos de que las personas encargadas del proceso puedan verse influidas por prejuicios, ideas preconcebidas o sensaciones que, actuando a modo de intuiciones, desencadenen una decisi\u00f3n con tintes espurios. En definitiva, se cercena el riesgo de la discriminaci\u00f3n desde ya antes del inicio de la relaci\u00f3n laboral. Pero, \u00bfesta inicial aseveraci\u00f3n resiste un an\u00e1lisis m\u00e1s pausado?<\/p>\n<p>\u00bfCarece de sesgos nuestra afirmaci\u00f3n?<\/p>\n<p>Lamentablemente la conclusi\u00f3n es err\u00f3nea<sup>89<\/sup> y para fundamentar esta manifestaci\u00f3n -sin perjuicio de que podamos aspirar a que en el futuro los algoritmos nos puedan ofrecer una respuesta ecu\u00e1nime a los problemas que se nos planteen- acudimos nuevamente a nuestra doctrina m\u00e1s especializada que ha puesto de relieve que determinadas plataformas que han hecho descansar sus procesos selectivos en los algoritmos, a la postre, excluyen a determinadas personas de la posibilidad de acceder a la oferta de empleo<sup>90<\/sup> en atenci\u00f3n a datos que en s\u00ed mismos no son censurables pero que tienen -una vez se analizan- un impacto discriminatorio que no puede soslayarse ( <em>v.gr., <\/em>las conclusiones que se pueden alcanzar en atenci\u00f3n al lugar en el que se encuentra la residencia del candidato<sup>91<\/sup> ). En ocasiones, el sistema algor\u00edtmico se presenta como defectuoso y, al no reconocer una concreta informaci\u00f3n, acaba por expulsar del mercado laboral a determinadas personas<sup>92<\/sup> .<\/p>\n<p>No siempre es sencillo detectar el momento en que se produce la lesi\u00f3n al derecho a no ser discriminado. La selecci\u00f3n a trabajador no es instant\u00e1nea, sino que lo habitual es que tras hacerse p\u00fablica la vacante y los requisitos que <em>a priori <\/em>el candidato ha de cumplir, se lleve a cabo -tras la recepci\u00f3n de las candidaturas- la criba entre estas y posteriormente la entrevista de selecci\u00f3n de los finalistas, sin descartarse que previamente se hayan materializado otras t\u00e9cnicas, incluso grupales que sirven a modo de preselecci\u00f3n. Ninguna de estas fases est\u00e1 exenta de valoraciones personales por parte de los reclutadores y, por lo tanto, en ninguna de ellas se puede descartar que determinados pretendientes hayan sido expulsados del proceso por motivos discriminatorios<sup>93<\/sup>. Lamentablemente esta situaci\u00f3n se complica m\u00e1s porque este estadio precontractual no ha sido contemplado expresamente por la normativa, ni por la negociaci\u00f3n colectiva, existe escasa intervenci\u00f3n de Inspecci\u00f3n de Trabajo y no hay pronunciamientos judiciales dictados en esta fase<sup>94<\/sup>.<\/p>\n<p>Todas estas dificultades se tornan mayores cuando nos hallamos ante procesos para cubrir vacantes en las empresas privadas<sup>95<\/sup>.<\/p>\n<p>Pero, centremos, a partir de este momento, nuestra atenci\u00f3n en los procesos de selecci\u00f3n que llevan a cabo las empresas auxili\u00e1ndose de los algoritmos y amparadas por el principio de libertad de empresa. Desde este momento, esto es cuando la entidad acude a sistemas algor\u00edtmicos para afrontar los procesos de selecci\u00f3n<sup>96<\/sup>, se encuentra con una nueva obligaci\u00f3n que es la que se se\u00f1ala en el joven art.64.4.d) del Estatuto de los Trabajadores y, as\u00ed, en atenci\u00f3n a lo que en \u00e9l se dispone, se establece una obligaci\u00f3n de informaci\u00f3n a los representantes de los trabajadores.<\/p>\n<p>Una vez se alcanza la decisi\u00f3n de acudir a los sistemas antes indicados para la b\u00fasqueda de candidatos, se abre -siguiendo a Serrano Falc\u00f3n<sup>97<\/sup>&#8211; la segunda de las fases denominada \u201c<em>b\u00fasqueda de candidatos<\/em>\u201d y, en ese momento, esa b\u00fasqueda se podr\u00e1 realizar a trav\u00e9s de f\u00f3rmulas variopintas que van desde la propia p\u00e1gina web de la entidad, hasta acudir a otros portales de empleo o redes sociales y por supuesto al Servicio P\u00fablico de Empleo<sup>98<\/sup>, sin descartar la acci\u00f3n <em>pull <\/em>que permite que sea la propia empresa la que capte posibles candidatos.<\/p>\n<p>Ya desde ese instante ser\u00eda posible que aparecieran los sesgos discriminatorios -desde la concepci\u00f3n y configuraci\u00f3n de las ofertas de empleo<sup>99<\/sup>&#8211; pues \u201c<em>La tecnolog\u00eda parece capaz de inferir ciertas caracter\u00edsticas personales basadas en otros datos<\/em>\u201d<sup>100<\/sup> y aunque esto parece m\u00e1s sofisticado, lo cierto es que la aparici\u00f3n de los sesgos puede proceder de la propia concepci\u00f3n del algoritmo, por cuanto que este se construya a base de par\u00e1metros que ya, en s\u00ed mismos considerados, son discriminatorios en la medida en que repliquen modelos anteriores que est\u00e1n viciados de este mismo problema<sup>101<\/sup>.<\/p>\n<p>Tanto una como otra f\u00f3rmula de aparici\u00f3n del sesgo es facilitada por programas o herramientas que se pueden emplear para rentabilizar los recursos cuando se pone en marcha un proceso de selecci\u00f3n<sup>102<\/sup> y que, incluso, pueden llegar a analizar las emociones de los candidatos a trav\u00e9s de sus expresiones faciales<sup>103<\/sup>, as\u00ed como las \u201c<em>caracter\u00edsticas f\u00edsicas y psicol\u00f3gicas tales como el origen \u00e9tnico, emociones y bienestar<\/em>\u201d<sup>104<\/sup>; de otro lado, el candidato corre el riesgo de quedar fuera de los procesos por cuestiones que s\u00ed podr\u00eda salvar la presencia humana, tales como el tono de voz<sup>105<\/sup> o incluso no emplear la palabra exacta que est\u00e1 buscando ese sistema algor\u00edtmico.<\/p>\n<p>Y, en toda esta suerte algor\u00edtmica, nos encontramos con otros obst\u00e1culos que son insalvables. Detectados los sesgos -y, como se puede intuir esta detecci\u00f3n no es ni mucho menos obvia- no siempre es posible su correcci\u00f3n humana<sup>106<\/sup>.<\/p>\n<p>Si tratamos de descender algo m\u00e1s, Eguiluz Casta\u00f1eira, J<sup>107<\/sup> recogiendo los trabajos expuestos por Barocas y Selbst, junto con Zuiderveen, se\u00f1ala que la discriminaci\u00f3n con relaci\u00f3n a las \u201c<em>decisiones automatizadas<\/em>\u201d pueden provenir de \u201c<em>a) la <\/em>\u00ab<em>variable objetivo\u00bb y la definici\u00f3n de las \u00abetiquetas de clase\u00bb\u201d. <\/em>En esta forma, la discriminaci\u00f3n proviene de no tener m\u00e1s que en consideraci\u00f3n los valores que la empresa entienden capacita a un candidato frente a otro, sin tener en consideraci\u00f3n otros factores que pesan sobre determinados colectivos y que les dificultan la consecuci\u00f3n de esas \u201cetiquetas\u201d que dise\u00f1a la empresa<sup>108<\/sup>. \u201c<em>b) datos de entrenamiento: ejemplos de etiquetado<\/em>\u201d, refiri\u00e9ndose al aprendizaje del sistema algor\u00edtmico que si se basa en datos que ya de por s\u00ed presentan sesgos discriminatorios, los resultados obtenidos repetir\u00e1n ese patr\u00f3n discriminatorio, para lo cual es bastante ilustrativo el ejemplo que indica sobre el proceso de selecci\u00f3n llevado a cabo por Amazon y c\u00f3mo este incurr\u00eda en discriminaci\u00f3n por raz\u00f3n de g\u00e9nero, toda vez que el sistema, valorando los datos que ten\u00eda introducidos en los que el personal contratado para puestos t\u00e9cnicos era masculino, entend\u00eda que el perfil \u00f3ptimo para cubrir esas vacantes eran candidatos varones. \u201c<em>c) recopilaci\u00f3n de datos de entrenamiento<\/em>\u201d. Se hace alusi\u00f3n a la procedencia de datos. Si existe menos informaci\u00f3n sobre un determinado colectivo (fuera cual fuere este) la informaci\u00f3n que obtenemos del manejo de datos tambi\u00e9n est\u00e1 sesgada y puede excluir a personas que est\u00e1n en menor medida representadas. \u201c<em>d) selecci\u00f3n de caracter\u00edsticas<\/em>\u201d. Toda vez que las caracter\u00edsticas definitorias de una persona -y de un trabajador- pueden ser heterog\u00e9neas y dif\u00edciles de cubrir en su totalidad, habr\u00e1 que elegir entre todas las cualidades y aptitudes (haciendo referencia ahora \u00fanicamente al plano laboral y, acaso, en concreto al momento de la selecci\u00f3n de los candidatos) cu\u00e1les son las m\u00e1s y mejor valoradas. El ejemplo que en esta ocasi\u00f3n se nos dispensa nos habla de discriminaci\u00f3n de los colectivos m\u00e1s vulnerables que no pueden permitirse estudios impartidos por entidades privadas, por lo que si el criterio de selecci\u00f3n fuera este (el de haber cursado la formaci\u00f3n en una instituci\u00f3n que no sea p\u00fablica), tambi\u00e9n se provocar\u00eda discriminaci\u00f3n; \u201c<em>y e) variables de aproximaci\u00f3n (Proxy<\/em>)\u201d o c\u00f3mo un dato aparentemente neutral se convierte en discriminatorio por derivaci\u00f3n. El dato por s\u00ed mismo no es discriminatorio, pero las consecuencias que se anudan del mismo s\u00ed pueden resultarlo. Siendo estas las formas de discriminaci\u00f3n involuntaria, tambi\u00e9n hace referencia a la posibilidad de que la discriminaci\u00f3n sea consciente y querida.<\/p>\n<p>El problema que aqu\u00ed se trata de plantear (que los sistemas algor\u00edtmicos son susceptibles de llevar a cabo decisiones discriminatorias) no es un peligro local ni del que sea ajena la Administraci\u00f3n.<\/p>\n<p>As\u00ed, descendiendo a supuestos reales, vemos c\u00f3mo la decisi\u00f3n del algoritmo del servicio p\u00fablico de empleo austr\u00edaco fue tildada de discriminatoria. All\u00ed se hab\u00eda utilizado un algoritmo que clasificaba a la poblaci\u00f3n desempleada en atenci\u00f3n a la probabilidad que ten\u00eda de encontrar un trabajo. El objetivo de este sistema (denominado PAMAS) era loable, por cuanto aspiraba a realizar un reparto eficiente de los recursos. Los problemas, no obstante, surgieron cuando, en esa clasificaci\u00f3n de las personas, se descontaban puntos a las personas que se hallaban en situaciones concretas (por ejemplo, eran mujeres o extranjeros no nacionales de pa\u00edses de la Uni\u00f3n Europea), lo que supon\u00eda la catalogaci\u00f3n de la persona como sujeto con baja probabilidad de obtener un empleo<sup>109<\/sup> y la consecuencia de tal encasillamiento era que los servicios p\u00fablicos destinaran sus esfuerzos a otro grupo de personas, a las que se les catalogaba con una probabilidad media para encontrar una oportunidad laboral.<\/p>\n<p>Quiz\u00e1s la experiencia anterior pueda ser de utilidad para un modelo como el nuestro que pretende crear (Estrategia Espa\u00f1a 2050<sup>110<\/sup>) una plataforma para la b\u00fasqueda de empleo nacional (con vistas a una proyecci\u00f3n futura de expandirse a los empleos de la UE) en donde confluyan demandantes y oferentes de colocaci\u00f3n, sin distingos en funci\u00f3n de su naturaleza p\u00fablica o privada.<\/p>\n<p>Con las reflexiones anteriores no pretendemos postular a favor de cercenar el derecho -tambi\u00e9n constitucionalmente consagrado- de libertad de empresa, sino que acaso se ha de meditar sobre la conveniencia, puesta de manifiesto por nuestra doctrina cient\u00edfica, de introducir mecanismos e instrumentos que velen por el cumplimiento de los derechos que toda persona tiene a ser tratada en condiciones de igualdad en un proceso de selecci\u00f3n<sup>111<\/sup>.<\/p>\n<p>Desde nuestro punto de vista, los peligros son -desde el punto de vista cualitativo- los mismos con y sin algoritmos. Esto es, en los procesos de selecci\u00f3n que pudi\u00e9ramos calificar como tradicionales tambi\u00e9n se descubren datos personales que informan sobre caracter\u00edsticas ajenas a la dimensi\u00f3n laboral y que tambi\u00e9n son susceptibles de ocasionar un trato discriminatorio por parte del humano-seleccionador. Los curr\u00edculos a la antigua usanza no se limitan a ofrecer datos netamente profesionales; las entrevistas a los candidatos no se ci\u00f1en \u00fanicamente a esta dimensi\u00f3n o esfera no personal.<\/p>\n<p>De hecho, los algoritmos funcionan a base de datos previos. Si los que se introducen a los fines de elegir al candidato m\u00e1s apto de todos cuantos se presenten se hacen en atenci\u00f3n a una experiencia previa y esta era la que ten\u00edamos antes de que se extendieran los modelos automatizados, por lo que los datos incluidos pertenecen a esa era m\u00e1s anal\u00f3gica, y son estos los que son susceptibles de ocasionar lesiones a los derechos, y particularmente al derecho a no ser discriminado.<\/p>\n<p>El problema que, a nuestros ojos, aqu\u00ed se plantea con los nuevos medios son los en absoluto menores relativos al reconocimiento de la discriminaci\u00f3n. La dificultad que entra\u00f1a (por su opacidad) conocer cu\u00e1ndo se ha producido una decisi\u00f3n sesgada<sup>112<\/sup>.<\/p>\n<p>As\u00ed pues, m\u00e1s all\u00e1 de que no exista un derecho digital a ser tratado en condiciones de igualdad a la hora de acceder al empleo, el problema estriba -a nuestro juicio- que carecemos de un cuerpo normativo que con independencia de cu\u00e1l sea el medio empleado para seleccionar a candidatos, garantice el derecho de toda persona a ser tratado en condiciones de igualdad a la hora de acceder al empleo. Por supuesto, no podemos desconocer las potencialidades de las \u201cm\u00e1quinas\u201d y c\u00f3mo estas son capaces hasta, incluso, de interpretar nuestras emociones, siendo estos datos especialmente sensibles o si se quiere -para emplear la dicci\u00f3n de la Ley de Inteligencia Artificial (Propuesta de Reglamento)- \u201c<em>sistemas de IA de alto riesgo<\/em>\u201d y que merecen por tanto el cuidado m\u00e1s sutil de todos, pues su tratamiento ya no es que afecte al derecho a la no discriminaci\u00f3n sino a la propia dignidad humana.<\/p>\n<p>Otra de las afectaciones apreciadas por nuestra doctrina iuslaboralista en atenci\u00f3n a lo que supone la irrupci\u00f3n de los algoritmos es sobre el derecho a mentir. Ciertamente es esta una opci\u00f3n que puede ejercitar libremente un candidato a un puesto de trabajo, cuando en el proceso de selecci\u00f3n los reclutadores interfieren, a trav\u00e9s de sus preguntas, en la esfera m\u00e1s \u00edntima y privada del sujeto. Estas posibilidades que tiene el pretendiente se minimizan en los supuestos en que los procesos de selecci\u00f3n se realicen a trav\u00e9s de algoritmos, pues estos son capaces de detectar la \u201cmentira\u201d, combinando distintos datos que, aun cuando aut\u00f3nomos, dan como resultado afirmaciones o negaciones sobre \u00e1mbitos particulares del individuo. En estos casos, las contestaciones a las preguntas directas que tratan de indagar en la esfera privada carecen de relevancia y se obtiene la respuesta real de la combinaci\u00f3n de otras contestaciones que pueden incluso presentarse como as\u00e9pticas, si se consideran de forma independiente pero que, en su conjunto, ofrecen la idea que sobre el individuo se quiere obtener.<\/p>\n<p>Y siendo ello as\u00ed, y aun cuando los algoritmos se empleen en la fase m\u00e1s inicial del proceso de selecci\u00f3n para descartar el torrente de candidatos y quedarse \u00fanicamente con unos preelegidos, el fantasma de la discriminaci\u00f3n sobrevuela sobre cada uno de los descartes, sin que se consiga que la intervenci\u00f3n humana al final del proceso para decidir qui\u00e9n es el afortunado trabajador pueda subsanar el da\u00f1o anteriormente producido. Aqu\u00ed, la garant\u00eda de intervenci\u00f3n humana no consigue enmendar los da\u00f1os anteriores que el dise\u00f1ador ha propiciado.<\/p>\n<p>En definitiva, y a modo de cierre, especial cuidado con los sistemas de inteligencia artificial declarados de alto riesgo (Anexo III del Reglamento europeo de inteligencia artificial) no solo estrictamente laborales sino tambi\u00e9n aquellos otros que, teniendo en consideraci\u00f3n al ser humano en su faceta m\u00e1s personal, pueden tambi\u00e9n proyectarse en el campo de las relaciones laborales<sup>113<\/sup>.<\/p>\n<h4>8.\u00a0 RELACI\u00d3N LABORAL, ALGORITMOS Y DISCRIMINACI\u00d3N<\/h4>\n<p>Ciertamente, el empleo de los algoritmos como instrumento para facilitar el desenvolvimiento de las relaciones laborales surgi\u00f3 focalizado en la fase previa a la contrataci\u00f3n laboral, no obstante, en la actualidad veremos que se han expandido a todos los momentos del devenir contractual <sup>114<\/sup>. As\u00ed, los algoritmos se muestran como herramientas valiosas para vigilar y controlar al trabajador<sup>115<\/sup>o evaluar el rendimiento (con las consecuencias que ello entra\u00f1a) y, por supuesto, para desplegar las facultades disciplinarias empresariales.<\/p>\n<p>Pero tambi\u00e9n cada una de estas aplicaciones puede comprometer el derecho a no ser discriminado. Descendamos, por ejemplo, a la vigilancia y control del trabajador<sup>116<\/sup>, con mayor o menor intensidad -en relaci\u00f3n a la funci\u00f3n concreta asumida por el empleado- se puede reconocer cu\u00e1nto tiempo tarda en desempe\u00f1ar una determinada tarea la persona y comparar este con el lapso que objetivamente se precisa para concluirla.<\/p>\n<p>El problema surge cuando a pesar de que se pueda delimitar objetivamente el tiempo a emplear, la persona al llevar a cabo una actividad concreta se ve influida por otras circunstancias que tienen incidencia directa en la medici\u00f3n del tiempo. El algoritmo desconoce cu\u00e1les son los l\u00edmites de nuestras capacidades -en funci\u00f3n de factores como puedan ser los relativos a la salud o condici\u00f3n f\u00edsica, salud o incluso experiencia previa- por lo que las decisiones alcanzadas por no haber llegado al rendimiento m\u00e1ximo, sin tener en consideraci\u00f3n esas otras circunstancias que nos humanizan, bien pueden resultar discriminatorias. A\u00fan m\u00e1s, si el algoritmo es capaz de comparar los rendimientos entre diferentes trabajadores que ejercen la misma tarea (aun cuando no sea el mismo puesto de trabajo) tambi\u00e9n se podr\u00e1n provocar situaciones discriminatorias. La homogeneidad en el tratamiento de los datos, desconociendo las circunstancias personales y particulares de cada trabajador no le hace precisamente un favor al principio de igualdad. Por \u00faltimo, la persona afectada por una decisi\u00f3n que se ha alcanzado por una \u201cm\u00e1quina\u201d se presenta como neutra, carente de subjetividad, lo que hace despertar en el individuo al que le afecta un sentimiento de culpabilidad y aceptaci\u00f3n.<\/p>\n<p>Otro aspecto -en absoluto menor- viene constituido por el control de la jornada<sup>117<\/sup>. El registro de jornada a trav\u00e9s de las posibilidades que nos dispensan los sistemas de control remoto tambi\u00e9n puede afectar al presente derecho<sup>118<\/sup>.<\/p>\n<p>Una muestra la encontramos en la Sentencia de la Audiencia Nacional de 10 de mayo de 2021 (AS 2021\/1257) en la que se observa que la falta de tratamiento espec\u00edfico de las pausas fisiol\u00f3gicas provoca discriminaci\u00f3n indirecta por raz\u00f3n de la edad<sup>119<\/sup>.<\/p>\n<p>Pero es que, si el algoritmo adem\u00e1s no est\u00e1 dise\u00f1ado para diferenciar, por ejemplo, entre las causas que han motivado las ausencias del trabajador y se dispensa un tratamiento uniforme a las mismas, tambi\u00e9n aqu\u00ed de forma flagrante se comete discriminaci\u00f3n. Esta es -aun simplificadamente expuesta por nuestra parte- la situaci\u00f3n que el 31 de diciembre de 2020 del Tribunale Ordinario di Bologna tuvo que resolver, apreciando finalmente la discriminaci\u00f3n denunciada<sup>120<\/sup>.<\/p>\n<p>Por supuesto, extremadamente sensibles hemos de ser en el an\u00e1lisis de los diferentes enseres que los trabajadores portan y que sirven para controlar tanto su salud como la propia actividad laboral<sup>121<\/sup>.<\/p>\n<p>Otro de los aspectos susceptibles de ser invadidos por los algoritmos -como antes anunci\u00e1bamos- es el relativo a la evaluaci\u00f3n del desempe\u00f1o. La intensificaci\u00f3n en el uso de la tecnolog\u00eda consigue que, a la postre, el trabajador se encuentre m\u00e1s controlado<sup>122<\/sup> y, por ende, que se incremente la intensidad del elemento de dependencia o subordinaci\u00f3n jur\u00eddica. Esta circunstancia entra\u00f1a que finalmente si el rendimiento del trabajador -calculado objetivamente y sin tener en consideraci\u00f3n otros factores que podr\u00edan explicar la actitud del empleado- ha disminuido por debajo de lo que se consideran como topes insalvables para la m\u00e1quina, la decisi\u00f3n del empleador sobre la extinci\u00f3n del trabajador afectado se hace realidad<sup>123<\/sup>.<\/p>\n<p>Pero sin llegar a los extremos de cercenar el v\u00ednculo, lo cierto es que los algoritmos tambi\u00e9n pueden resultar \u00fatiles para la determinaci\u00f3n del salario, por lo que deberemos ser especialmente escrupulosos con el respeto de los derechos y, espec\u00edficamente, con la m\u00e1xima de la igualdad de remuneraci\u00f3n por trabajo de igual valor<sup>124<\/sup>.<\/p>\n<p>El problema que se plantea con los algoritmos espec\u00edficamente enfocados en la materia de determinaci\u00f3n de sistemas salariales es que son especialmente complejos, toda vez que \u201c<em>se basan a su vez en resultados de otros algoritmos<\/em>\u201d<sup>125<\/sup>.<\/p>\n<p>En sede de extinci\u00f3n, entendemos que los peligros que entra\u00f1an decisiones algor\u00edtmicas pueden ser soslayados -a diferencia de lo que ocurre en sede precontractual- con la intervenci\u00f3n humana. Para otro debate dejamos la valoraci\u00f3n -que incluso desde el punto de vista de la salud- puede provocar al trabajador el saberse constantemente evaluado, ya no solo por quien ejerce potestades de mando en su empresa sino por clientes de la empresa y nos centramos tan solo en los riesgos que entra\u00f1a una respuesta automatizada desde el prisma del respeto al derecho a la no discriminaci\u00f3n. As\u00ed, si la imposici\u00f3n de la sanci\u00f3n -sea cual fuera esta- es alcanzada por medios mec\u00e1nicos, pero es en todo caso evaluada por un humano a trav\u00e9s de un proceso de valoraci\u00f3n que tenga en consideraci\u00f3n variables que el algoritmo no ha podido (o no ha querido) tomar en cuenta, podremos calificar jur\u00eddicamente con mayor \u00edndice de acierto las conductas de los trabajadores.<\/p>\n<p>Circunstancias ajenas a la dimensi\u00f3n netamente laboral pueden haber sido las desencadenantes de una actitud incumplidora del empleado y que, en todo caso, han de ponderarse para imponer la sanci\u00f3n final, logrando con ello que se ajuste al principio de proporcionalidad, principio este que ha de presidir toda actuaci\u00f3n disciplinaria del empleador.<\/p>\n<p>Habi\u00e9ndonos centrado en los p\u00e1rrafos precedentes a las facultades sancionadoras del empresario -y, en especial, en el despido disciplinario- no se puede obviar que los algoritmos pueden ser \u00fatiles tambi\u00e9n para definir otras situaciones que son jur\u00eddicamente relevantes y, concretamente, para valorar cu\u00e1l es el criterio de todos los posibles m\u00e1s acertado -desde un punto de vista empresarial- a fin de proceder a despidos objetivos o colectivos<sup>126<\/sup> o para constatar el absentismo, la rotaci\u00f3n del personal y bajo qu\u00e9 condiciones se produce o, incluso, la productividad de los equipos de trabajo con el objeto de determinar cu\u00e1les son los que alcanzan mayor rendimiento, sin tener que demorar a futuro su constataci\u00f3n.<\/p>\n<p>Esa utilidad, no obstante, habr\u00e1 de ser revisada y examinada a la luz de los derechos de los trabajadores, pues ya estemos en sede de extinci\u00f3n objetiva o de despido disciplinario, habr\u00e1 que ser muy cautos con la admisi\u00f3n de decisiones que se proyectan no en atenci\u00f3n a los datos presentes sino a los que de futuro el algoritmo prediga, esto es, con relaci\u00f3n a los algoritmos predictivos. En definitiva, tenemos que aplicar las garant\u00edas destacadas por Molina Navarrete<sup>127<\/sup> al analizar el art. 22 del Reglamento General de Protecci\u00f3n de Datos, cuales son el de transparencia, el de precauci\u00f3n y el que postula el derecho a que la decisi\u00f3n final sea humana; siguiendo con este autor: \u201c<em>el algoritmo nunca podr\u00e1 ser tu jefe<\/em>\u201d.<\/p>\n<h4>9.\u00a0 A MODO DE RECAPITULACI\u00d3N Y POSIBLES ALTERNATIVAS<\/h4>\n<p>Los n\u00fameros discriminan. Esta es una realidad de la que no podemos dudar. A partir de ah\u00ed se discute si estamos ante un tipo de discriminaci\u00f3n diferente a la tradicional<sup>128<\/sup>que tiene implicaciones muy notables -aunque veces no tan claras- con el derecho a la libertad<sup>129<\/sup>.<\/p>\n<p>En la actualidad nos encontramos ante un escenario en el que el pertenecer a determinados grupos sociales s\u00ed constituye una desventaja<sup>130<\/sup> y, como -definitivamente- la informaci\u00f3n que se maneja a partir de los datos es ingente, el ulterior resultado de posible lesi\u00f3n a los derechos de las personas se multiplica exponencialmente, por cuanto se extiende a un mayor n\u00famero de personas<sup>131<\/sup>. Esta realidad nos hace preguntarnos -siguiendo a Rivas Vallejo<sup>132<\/sup>&#8211; sobre el \u201c<em>origen del sesgo<\/em>\u201d para saber d\u00f3nde -como humanos- debemos actuar para poder erradicar las consecuencias negativas que entra\u00f1a para el derecho a la igualdad.<\/p>\n<p>Volvamos de nuevo a los datos y, aunque parezca una obviedad, que existan macrodatos o <em>big data <\/em>presupone que detr\u00e1s de ellos aparezcan una serie considerable de individuos que est\u00e1n dispuestos a verter esa informaci\u00f3n aunque sea de manera indirecta, esto es, para conseguir un fin (la instalaci\u00f3n de una aplicaci\u00f3n, <em>v.gr.<\/em>). Junto a ello, es tambi\u00e9n preciso que exista un espacio para su almacenaje y en este sentido la red, internet, es el espacio ideal sin fondo y l\u00edmite de capacidad.<\/p>\n<p>Por supuesto la intervenci\u00f3n humana no se ci\u00f1e \u00fanicamente a introducir datos, sino que tambi\u00e9n ser\u00e1 necesario que existan personas que sean capaces de analizar e interpretar esos datos. Y es aqu\u00ed donde hay que introducir el matiz que lamentablemente agria el tono optimista bajo el cual hemos pretendido introducir estas l\u00edneas.<\/p>\n<p>As\u00ed pues, es necesario que existan tanto sujetos que introduzcan datos como tambi\u00e9n otros que los interpreten. \u00bfEn qu\u00e9 situaci\u00f3n quedan los individuos que ya no es que no tengan habilidades para comprender la interacci\u00f3n de la informaci\u00f3n, sino que ni tan siquiera tienen la oportunidad de incluir datos atinentes a su persona? Insistimos en recordar que <em>big data <\/em>hace referencia a la informaci\u00f3n de cualquier cariz que rodea a la persona, pero si el individuo no tiene la oportunidad de verter estos datos \u00bfen qu\u00e9 posici\u00f3n se encuentra?<\/p>\n<p>Esta realidad incide de manera significativa en lo que se ha venido denominando brecha digital, pues qu\u00e9 duda cabe que los sujetos que saben interpretar los datos \u201c<em>son los privilegiados de este nuevo mundo<\/em>\u201d<sup>133<\/sup>, privilegio este que se manifestar\u00e1, con suma probabilidad, en la consecuci\u00f3n de empleos de mayor calidad: solo quien sabe interpretar los <em>big data <\/em>ser\u00e1 capaz de discernir con total claridad qu\u00e9 derechos de la persona est\u00e1n en juego, apuntar sus posibles lesiones, as\u00ed como arbitrar mecanismos que incidiendo sobre los datos eviten (o si se tiene una visi\u00f3n menos optimista) minimicen los efectos perniciosos que sobre estos derechos los datos, los algoritmos y la inteligencia artificial pueda provocar.<\/p>\n<p>No obstante, lo m\u00e1s inquietante viene de la mano de ese n\u00facleo de la poblaci\u00f3n que en absoluto se relaciona con los datos, pues ni tan siquiera ofrece los mismos y esto tiene repercusiones mucho m\u00e1s serias de las que imagin\u00e1bamos en un principio. Cierto es que los datos -y por supuesto los algoritmos y, en general, la inteligencia artificial- nos servir\u00e1n para predecir conductas, pero tambi\u00e9n -y acaso esto ocurre en primer lugar- para reconocer los gustos de la persona navegante que con mayor o menor dosis de consciencia deja su rastro en la nube, e incluso para detectar situaciones que son m\u00e1s trascendentales y que se extienden desde el campo de la educaci\u00f3n, al del trabajo o a la falta de ocupaci\u00f3n.<\/p>\n<p>Si existen individuos -que probablemente forman parte de un colectivo que tradicionalmente ha resultado ignorado- que est\u00e1n fuera de ese tr\u00e1fico de datos, significa que los sistemas arbitrados en torno a los datos (insistimos, los algoritmos) no van a poder nutrirse de la informaci\u00f3n que requieren. Estos sujetos que ofrecen menos informaci\u00f3n (o ninguna) son m\u00e1s susceptibles de seguir sufriendo una situaci\u00f3n de marginalidad y vulnerabilidad que, incluso nos atrevemos a afirmar, se ver\u00e1 acrecentada m\u00e1s all\u00e1 de nuestras fronteras<sup>134<\/sup>.<\/p>\n<p>Si esta \u00faltima consideraci\u00f3n la trasladamos al mundo del trabajo, no es descabellado pensar que estas personas vulnerables pueden encontrarse excluidas del mercado laboral, incluso antes de plantearse acceder al mismo. La carencia de datos sobre sus condiciones particulares y singulares provocar\u00e1 que queden al margen, puesto que si el sistema algor\u00edtmico deja de contener patrones (datos) sobre los mismos, este los rechazar\u00e1 autom\u00e1ticamente y sin contemplaciones.<\/p>\n<p>Esta situaci\u00f3n, en definitiva, fomenta las posibilidades discriminatorias tanto de forma directa como indirecta, pues es un dato incontestable que \u201c<em>big data y los algoritmos pueden heredar o reflejar perjuicios y patrones de exclusi\u00f3n o ser resultado de quienes han tomado decisiones anteriores<\/em>\u201d<sup>135<\/sup>, de forma tal que corremos el riesgo de emular conductas discriminatorias pasadas, algunas de las cuales incluso hab\u00edamos ido superando como sociedad<sup>136<\/sup>.<\/p>\n<p>Advi\u00e9rtase la peligrosidad que esta realidad entra\u00f1a y que, por supuesto, trasciende de la esfera laboral a otra mucho m\u00e1s inquietante: la de la salud. Si introducimos una serie de datos que dejan fuera a un sector de la poblaci\u00f3n, a fin de que -por ejemplo- el algoritmo establezca determinadas predicciones acerca de complicaciones posibles en los procesos patol\u00f3gicos o para analizar s\u00edntomas o tratamientos, esa parte de la poblaci\u00f3n no formar\u00e1 parte de ese ensayo y, a la postre, no existir\u00e1 una verdadera y eficaz respuesta m\u00e9dica universal.<\/p>\n<p>De nuevo, en este punto, la doctrina iuslaboralista ha manifestado c\u00f3mo el conocimiento del c\u00f3digo fuente y en general el relativo a los datos, se muestran como herramientas valios\u00edsimas para conocer si se ha producido la lesi\u00f3n al derecho a la no discriminaci\u00f3n. El problema surge cuando se observa que existe una normativa (l\u00f3gica tambi\u00e9n) de protecci\u00f3n al meritado c\u00f3digo fuente y a los datos, tutela esta que procura la imposibilidad de acceder al mismo porque forma parte de la propiedad del empresario<sup>137<\/sup>. Junto a ello, no se ha de olvidar que es m\u00e1s que probable que aun cuando pudiera garantizarse legalmente el acceso al mismo, este no ser\u00eda de f\u00e1cil entendimiento para los que somos legos en el lenguaje de la programaci\u00f3n<sup>138<\/sup>. De cualquier manera, ese derecho al conocimiento exclusivo que tiene en este caso el empleador sobre los datos y\/o el c\u00f3digo fuente, es susceptible de ser limitado en el transcurso de un procedimiento judicial o administrativo, tal y como se prev\u00e9 en la propia normativa de protecci\u00f3n intelectual<sup>139<\/sup>.<\/p>\n<p>Es decir que lo que s\u00ed se presenta como di\u00e1fano -al menos para nuestra doctrina laboral especializada- es el consenso de que a pesar de lo que pueda suponer de avanzada la modificaci\u00f3n operada en el art.64 del Estatuto de los Trabajadores, la soluci\u00f3n al problema no estriba en el conocimiento de \u201c<em>los par\u00e1metros, reglas e instrucciones en los que se basan los algoritmos<\/em>\u201d y ello no solo porque el lenguaje es ininteligible, sino tambi\u00e9n porque sobre los mismos pesan una serie de garant\u00edas, derechos de propiedad intelectual entre otros, que tambi\u00e9n son dignos de ser tenidos en consideraci\u00f3n<sup>140<\/sup>.<\/p>\n<p>La discriminaci\u00f3n indirecta -en cualquier caso- es m\u00e1s dif\u00edcil de observar y, en relaci\u00f3n al algoritmo, la \u201c<em>disposici\u00f3n, pr\u00e1ctica o criterio aparentemente neutro<\/em>\u201d vendr\u00eda constituida por \u201c<em>la variable espec\u00edfica introducida en el sistema que, por el valor que le otorga este, genera un resultado discriminatorio para el grupo desaventajado, o bien el algoritmo generalmente considerado<\/em>\u201d<sup>141<\/sup>.<\/p>\n<p>Ante esta realidad, necesitamos explorar los canales para erradicar estos efectos perversos de los algoritmos; y, partiendo siempre de la responsabilidad empresarial <sup>142<\/sup>, la doctrina plantea que: \u201c<em>Si son los derechos fundamentales y la dignidad de la persona humana los que est\u00e1n en el origen de la alerta sobre las tecnolog\u00edas convergentes, ser\u00e1 desde los derechos fundamentales -desde todos ellos incluido el de participaci\u00f3n pol\u00edtica- desde donde debamos reconstruir y articular las tecnolog\u00edas convergentes con la sociedad del futuro<\/em>\u201d<sup>143<\/sup>.<\/p>\n<p>T\u00e9ngase en cuenta que es muy dif\u00edcil volver atr\u00e1s. La tecnolog\u00eda \u201cengancha\u201d, genera dependencia, por lo que una vez implantados &#8211; espec\u00edficamente- los nuevos sistemas de trabajo, no es f\u00e1cil emprender el camino de vuelta. Acaso lo que en realidad subyace es una espec\u00edfica llamada a los agentes sociales para que velen por lo que aqu\u00ed puede ocurrir: la gobernanza colectiva que, ineludiblemente, ha de ser precedida por una capacitaci\u00f3n profesional para, a la postre, negociar el algoritmo<sup>144<\/sup> como se est\u00e1 haciendo en Italia, teniendo presente -y para ello tenemos estudios autorizados- cu\u00e1les son las razones que nos llevan a discriminar<sup>145<\/sup>. Esta labor es preciso acometerla a trav\u00e9s del despliegue de un trabajo interdisciplinar que implique no solo a los profesionales de la inform\u00e1tica -o t\u00e9cnicos matem\u00e1ticos- sino tambi\u00e9n a los juristas.<\/p>\n<p>La llamada a los representantes de los trabajadores ha de tener un contenido concreto y claro, sin circunscribirse a la reproducci\u00f3n casi literal de lo que precept\u00faa la norma estatal, incluyendo la que indica el Reglamento General de Protecci\u00f3n de Datos. De esta forma, se destaca el papel de la negociaci\u00f3n colectiva como garante del derecho a la igualdad<sup>146<\/sup>.<\/p>\n<p>Ahondando en la idea anterior de asunci\u00f3n de competencias espec\u00edficas en esta materia de la representaci\u00f3n de los trabajadores, otra sugerencia apuntada es la de tener en cuenta las previsiones contenidas en la Ley (propuesta de Reglamento) de Inteligencia Artificial. Ciertamente, el texto indicado no est\u00e1 dise\u00f1ado espec\u00edficamente para el \u00e1mbito de las relaciones laborales, pero un comienzo podr\u00eda ser su lectura al objeto de extender las obligaciones que fueron dise\u00f1adas para proyectarse en la relaci\u00f3n que se entabla entre usuario &#8211; empresario- y proveedor del algoritmo (o sistema de inteligencia artificial). Se tratar\u00eda de hacer recaer en el empleador la obligaci\u00f3n de informar sobre los mismos extremos que aparecen en la citada Ley de Inteligencia Artificial a los representantes de los trabajadores, consiguiendo as\u00ed sistemas m\u00e1s transparentes.<\/p>\n<p>Otra de las sugerencias proclamadas por nuestra doctrina m\u00e1s autorizada es la previsi\u00f3n de auditor\u00edas e incluso exigir que los sistemas algor\u00edtmicos, previamente a su empleo, tengan que ser visados y certificados por una autoridad p\u00fablica que vele por la inexistencia de los sesgos, colocando por tanto a la Administraci\u00f3n en garante de los derechos que, eventualmente, podr\u00edan resultar afectados.<\/p>\n<p>Por supuesto, y aun cuando pueda tener l\u00f3gicos detractores, otra de las opciones arbitradas a fin de lograr el respeto de determinados m\u00ednimos o si se quiere de asegurar comportamientos \u00e9ticos y responsables en el manejo de los algoritmos, viene dada por las posibilidades que entra\u00f1a la responsabilidad social empresarial<sup>147<\/sup> .<\/p>\n<p>Como se puede comprobar, ninguna de las opciones excluye al resto, por lo que bien podr\u00eda tratarse m\u00e1s que de alternativas, de soluciones conjuntas. Lo que s\u00ed parece incontestable es la necesidad, tambi\u00e9n en este terreno, de la formaci\u00f3n. Formaci\u00f3n para los agentes sociales y por supuesto para las entidades, personas o sujetos que de forma m\u00e1s o menos directa se relacionan con los algoritmos. Aun cuando creemos un escenario jur\u00eddico provisto de garant\u00edas de toda \u00edndole, destinadas todas ellas a la procura del bien general y del respeto de derechos fundamentales, si los agentes que est\u00e1n en contacto directo con decisiones concretas y reales basadas en estos algoritmos no poseen los conocimientos especializados suficientes como para entender al menos de d\u00f3nde puede provenir el ataque a los derechos humanos y comprender, siquiera indiciariamente, c\u00f3mo funciona la inteligencia artificial y sus componentes, estamos seguros de que no se podr\u00e1 garantizar exitosamente el cumplimiento de los l\u00edmites infranqueables a las decisiones automatizadas.<\/p>\n<p>Hemos tratado de analizar los riesgos que presentan los algoritmos en atenci\u00f3n al respeto de los derechos fundamentales y, espec\u00edficamente, del referido al derecho a no ser discriminado. Las posibilidades de que los algoritmos contengan sesgos que, en \u00faltima instancia, segreguen a determinados colectivos o a espec\u00edficas personas por supuesto es real, pero recordemos que \u201c<em>aunque es poco probable que un algoritmo de predicci\u00f3n sea perfecto en un mundo incierto, puede ser mucho menos imperfecto que el ruidoso y, a menudo, sesgado juicio humano<\/em><sup>148<\/sup>\u201d.<\/p>\n<p>De esta forma, la discriminaci\u00f3n por estos nuevos sistemas algor\u00edtmicos \u201c\u2026<em>obtiene, por el momento, respuestas desde nuestras actuales t\u00e9cnicas conceptuales [<\/em>pero<em>] requerir\u00eda probablemente tambi\u00e9n de nuevas herramientas jur\u00eddicas de an\u00e1lisis<\/em>\u201d<sup>149<\/sup>, lo que supone la necesidad de poner el acento en la protecci\u00f3n de datos, con especial incidencia en el principio de proporcionalidad y transparencia<sup>150<\/sup>, as\u00ed como la evaluaci\u00f3n del algoritmo<sup>151<\/sup>.<\/p>\n<p>*********************************************<\/p>\n<p><sup>1<\/sup> Trabajo realizado en el marco del Proyecto de Investigaci\u00f3n Nuevas Causas y Perfiles de Discriminaci\u00f3n e Instrumentos para la Tutela Antidiscriminatoria en el Nuevo Contexto Tecnol\u00f3gico Social (US-1264479).<\/p>\n<p><sup>2<\/sup> RIVAS VALLEJO, P. (22 de junio de 2021). \u201cDiscriminaci\u00f3n algor\u00edtmica en el trabajo\u201d [V\u00eddeo]- En AEDTSS,\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 Sesi\u00f3n\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 II,\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 Algoritmos\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 y\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 discriminaci\u00f3n\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 II.\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 Youtube. https:\/\/<a href=\"http:\/\/www.youtube.com\/watch?v=2wcJCRbI0zs&amp;ab_channel=AEDTSS\">www.youtube.com\/watch?v=2wcJCRbI0zs&amp;ab_channel=AEDTSS<\/a><\/p>\n<p>Manifiesta que \u201c<em>aunque el aprendizaje autom\u00e1tico, por su propia naturaleza, siempre es una forma de discriminaci\u00f3n estad\u00edstica, la discriminaci\u00f3n se vuelve objetable cuando coloca a ciertos grupos privilegiados en una ventaja sistem\u00e1tica y a ciertos grupos no privilegiados en desventaja sistem\u00e1tica\u201d. De esta forma, el sesgo discriminatorio puede estar presente tanto en el \u201cdise\u00f1o\u201d como en \u201cel aprendizaje autom\u00e1tico<\/em>\u201d, ya sea porque el \u201c<em>dise\u00f1o no es inclusivo<\/em>\u201d o porque se produce la \u201c<em>absorci\u00f3n de patrones sociales (datos) y amplificaci\u00f3n del sesgo<\/em>\u201d o bien porque aparece el sesgo \u201c<em>en los datos de entrenamiento, debido a que los prejuicios en las etiquetas o al muestreo insuficiente o excesivo, genera modelos con sesgo no deseado<\/em>\u201d.<\/p>\n<p><sup>3<\/sup> V\u00e9ase, a t\u00edtulo de ejemplo, SORIANO ARNANZ, A.: \u201cDecisiones automatizadas y discriminaci\u00f3n: aproximaci\u00f3n y propuestas generales\u201d. <em>Revista General de Derecho Administrativo <\/em>n\u00fam. 56 (2021). Disponible en <a href=\"http:\/\/www.Iustel.com\/\">www.Iustel.com. <\/a>423439.<\/p>\n<p><sup>4<\/sup> La retroalimentaci\u00f3n es un elemento puesto de manifiesto por CRUZ VILLAL\u00d3N, J.: \u201cLas transformaciones de las relaciones laborales ante la digitalizaci\u00f3n de la econom\u00eda\u201d. Temas Laborales, 2017, n\u00fam. 138, pp. 15-16.<\/p>\n<p><sup>5<\/sup> HUERGO A. (16 de febrero 2021), \u201cLa regulaci\u00f3n de los algoritmos\u201d. [V\u00eddeo]. Conversaciones online desde\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 la\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 Fundaci\u00f3n\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 Ram\u00f3n\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 Areces.\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 Madrid.\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 Disponible\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 en https:\/\/<a href=\"http:\/\/www.youtube.com\/watch?v=ZFFQ9rk46lA\">www.youtube.com\/watch?v=ZFFQ9rk46lA. <\/a>RIVAS VALLEJO, P.: <em>La aplicaci\u00f3n de la Inteligencia Artificial del trabajo y su impacto discriminatorio<\/em>. Ed. Thomson Reuters Aranzadi. 2020, pp. 457-468. La autora, de forma exhaustiva, glosa los conceptos empleados m\u00e1s all\u00e1 de los que se refieren en estas l\u00edneas.<\/p>\n<p><sup>6<\/sup> MERCADER UGUINA, J. R. (2021). \u201cDiscriminaci\u00f3n algor\u00edtmica y derecho granular: nuevos retos para la igualdad en la era del <em>big data\u201d<\/em>. <em>LABOS Revista De Derecho Del Trabajo Y Protecci\u00f3n Social<\/em>, 2(2), p.4.https:\/\/doi.org\/10.20318\/labos.2021.6213. Este autor considera que la \u201c<em>inteligencia artificial, productos y servicios del \u201cinternet de las cosas\u201d, sistemas aut\u00f3nomos y la tecnolog\u00eda 5G<\/em>\u201d conducen \u201c<em>a la consideraci\u00f3n de los datos digitales como materia prima capital de la sociedad de la informaci\u00f3n y del conocimiento<\/em>\u201d.<\/p>\n<p><sup>7<\/sup> RIVAS VALLEJO, P.: <em>La aplicaci\u00f3n de la Inteligencia Artificial del trabajo y su impacto discriminatorio<\/em>, <em>op.cit.<\/em>, p. 35.<\/p>\n<p><sup>8<\/sup> Esta acumulaci\u00f3n de datos da lugar a la denominada \u201c<em>miner\u00eda de la realidad<\/em>\u201d: BELTRAN DE HEREDIA RU\u00cdZ, I. -(10 de noviembre de 2021) \u201cLa irrupci\u00f3n de los algoritmos en el Derecho del Trabajo\u201d. [V\u00eddeo]. <em>XXI Congreso ASNALA. La Irrupci\u00f3n de los Algoritmos en el Derecho del Trabajo <\/em>&#8211; YouTube).<\/p>\n<p><sup>9<\/sup> BELTRAN DE HEREDIA RU\u00cdZ, I. \u201cLa irrupci\u00f3n de los algoritmos en el Derecho del Trabajo\u201d. <em>op.cit.<\/em>, destaca la idea de \u201c<em>m\u00e1s datos es mejor que mejores datos \u2026 Y esto ha planteado lo que ahora mismo podr\u00eda ser la \u00abcaza del tesoro\u00bb<\/em>\u201d; lo que, a su vez, nos remite a la idea de \u201c<em>la econom\u00eda de la vigilancia<\/em>\u201d.<\/p>\n<p><sup>10<\/sup> Las ideas antes expresadas son reflejadas -asumiendo lo que resulta ya una asentada tesis- por PRECIADO DOM\u00c9NECH, H.: \u201cAlgoritmos y discriminaci\u00f3n en la relaci\u00f3n laboral\u201d, Jurisdicci\u00f3n Social, <em>Revista de la Comisi\u00f3n de lo Social de Juezas y Jueces para la Democracia<\/em>. N\u00fam.223. Junio 2021. P. 7. \u201cEs un cl\u00e1sico ya hablar de las \u00ab3 V\u00bb como caracter\u00edstica propia de los <em>Big Data<\/em>\u201d. Estas \u201cV\u201d se refieren al \u201c<em>volumen, velocidad y variedad\u201d. \u201cAlgunos autores\/as a\u00f1aden 3 \u201cV\u201d m\u00e1s, correspondientes a la Veracidad, Variabilidad y Valor\u201d <\/em>(haciendo referencia a GIL GONZ\u00c1LEZ, E.: <em>Big data, privacidad y protecci\u00f3n de datos<\/em>. Ed. BOE y AEPD. 2016. p. 21-24\u201d).<\/p>\n<p>En el mismo sentido ya se hab\u00eda expresado COTINO HUESO, L.: \u201c<em>Big data <\/em>e inteligencia artificial. Una aproximaci\u00f3n a su tratamiento jur\u00eddico desde los derechos fundamentales\u201d. <em>Dilemata <\/em>n\u00fam.24. 2017. 131. Este autor refleja tambi\u00e9n que esta expresi\u00f3n de <em>big data <\/em>proviene del trabajo de Sch\u00f6nberger y Cukier (2013 a). En espa\u00f1ol se utiliza la expresi\u00f3n inglesa <em>\u201cbig data<\/em>\u201d, tambi\u00e9n \u201c<em>macrodatos<\/em>\u201d (Parlamento Europeo, 2017) y no tanto la de \u201c<em>datos masivos<\/em>\u201d.<\/p>\n<p>MOLINA NAVARRETE, C.: (1 de diciembre de 2020). \u201c<em>Big data <\/em>y relaciones laborales\u201d [V\u00eddeo]. En <em>La pandemia y la nueva Ley de Trabajo a Distancia: \u00bfuna oportunidad para el teletrabajo?. <\/em>MOLINA NAVARRETE, C. \u00ab<em>Big data <\/em>y relaciones laborales\u00bb &#8211; YouTube introduce un matiz en absoluto desde\u00f1able: esos datos diversos y masivos han de ser manejados \u201cal mismo tiempo\u201d.<\/p>\n<p><sup>11<\/sup> RIVAS VALLEJO, P., <em>La aplicaci\u00f3n de la Inteligencia Artificial del trabajo y su impacto discriminatorio<\/em>, <em>op.cit.<\/em>, p. 103. La autora acomete la definici\u00f3n de esta expresi\u00f3n: \u201c<em>Es el conjunto de t\u00e9cnicas y tecnolog\u00edas que permiten explorar grandes bases de datos, de manera autom\u00e1tica o semiautom\u00e1tica, con el objeto de encontrar patrones repetitivos, tendencias o reglas que expliquen el comportamiento de datos en un determinado contexto<\/em>\u201d.<\/p>\n<p><sup>12<\/sup> MOLINA NAVARRETE, C. (8\/septiembre\/2020). \u201cLa gesti\u00f3n de <em>Big Data <\/em>en las Relaciones Laborales y de la Seguridad Social tras el COVID-19\u201d. [v\u00eddeo] En AADTySS. Conferencia Internacional 8\/09\/2020. Conferencia Internacional 8\/9\/2020 -YouTube-.<\/p>\n<p>MOLINA NAVARRETE, C.: \u201cEconom\u00eda de datos, mercados digitales de empleo y gesti\u00f3n anal\u00edtica de personas: retos para la transici\u00f3n a una \u00absociedad del e-trabajo decente\u00bb\u201d. <em>Revista de Trabajo y Seguridad Social<\/em>. CEF 459 (junio 2021), p. 9, se refiere a \u201c<em>todas y cada una de las fases de direcci\u00f3n, organizaci\u00f3n, control y disciplina del trabajo. As\u00ed, el reclutamiento y selecci\u00f3n, la contrataci\u00f3n, clasificaci\u00f3n profesional y la promoci\u00f3n econ\u00f3mica, la evaluaci\u00f3n de los desempe\u00f1os, el control del cumplimiento y la propia gesti\u00f3n extintiva<\/em>\u201d.<\/p>\n<p>Incide en la idea de la transversalidad GOERLICH PESET, J.M: (6 de noviembre de 2021) VII Jornadas de Derecho Social de la Uni\u00f3n Europea [V\u00eddeo]. En AEDTSS. VII Jornadas de Derecho Social de la Uni\u00f3n Europea (06\/11\/2020) &#8211; YouTube<\/p>\n<p>Por su parte, SEMPERE NAVARRO, A.V.: \u201cUn apunte sobre la grabaci\u00f3n mediante c\u00e1maras (Al hilo de la STS-CIV 600\/2019 de 7 noviembre)\u201d <em>Revista Aranzadi Doctrinal<\/em>. n\u00fam. 2\/2020 parte Jurisprudencia. Doctrina. BIB 2020\\7801. Nos hace part\u00edcipes de la siguiente reflexi\u00f3n: \u201c<em>Si la informaci\u00f3n es poder, su tratamiento y control lo es en grado sumo. Los propios actores pol\u00edticos conf\u00edan crecientemente en algoritmos para adoptar estrategias o ganar elecciones; desde luego, las empresas los utilizan para procesos de asignaci\u00f3n de tareas e incluso de selecci\u00f3n de personal<\/em>.\u201d<\/p>\n<p><sup>13<\/sup> Estas consideraciones no nos deben hacer olvidar las reflexiones de MOLINA NAVARRETE, C.; \u201cLa gesti\u00f3n de <em>Big Data <\/em>en las Relaciones Laborales y de la Seguridad Social tras el COVID-19\u201d. [V\u00eddeo], <em>op.cit. <\/em>Destaca el autor que los pa\u00edses -as\u00ed, China- en los que el empleo de <em>big data <\/em>es significativamente superior con relaci\u00f3n a otros no han experimentado una disminuci\u00f3n en la demanda de empleo.<\/p>\n<p><sup>14<\/sup> Siguiendo con este autor, MOLINA NAVARRETE, C.: \u201cEconom\u00eda de datos, mercados digitales de empleo y gesti\u00f3n anal\u00edtica de personas: retos para la transici\u00f3n a una \u00absociedad del e-trabajo decente\u00bb\u201d. <em>op.cit.<\/em>, p. 5. Califica tambi\u00e9n a los datos como \u201c<em>nuevas minas de oro<\/em>\u201d reales del \u201c<em>rey Salom\u00f3n<\/em>\u201d.<\/p>\n<p><sup>15<\/sup> Adoptada por la Comisi\u00f3n Europea para la Eficiencia de la Justicia (CEPEJ) durante su 31 s t Reuni\u00f3n plenaria.<\/p>\n<p><sup>16<\/sup> A la luz de este concepto de partida que es el empleado por la doctrina laboralista a fin de concretar qu\u00e9 es el algoritmo. As\u00ed, PRECIADO DOM\u00c8NECH, C.H (5 de julio de 2021) [V\u00eddeo]: \u201cAlgoritmos y discriminaci\u00f3n en la relaci\u00f3n laboral\u201d. AEDTSS. Sesi\u00f3n II, Algoritmos y discriminaci\u00f3n I &#8211; YouTube que introduce alg\u00fan cambio fundamentalmente en lo que hace al orden de los vocablos empleados sin modificar sustancialmente el concepto plasmado por la citada Carta \u00c9tica. V\u00e9ase tambi\u00e9n del mismo autor, \u201cAlgoritmos y discriminaci\u00f3n en la relaci\u00f3n laboral\u201d, <em>op.cit.<\/em>, p. 6.<\/p>\n<p>De cualquier manera, como es imaginable, no existe un \u00fanico concepto de algoritmo. A t\u00edtulo de ejemplo, el algoritmo es una \u201c<em>secuencia de instrucciones, desarrollada por humanos, que se encarga de realizar tareas y encontrar soluciones de forma automatizada<\/em>\u201d (EGUILUZ CASTA\u00d1EIRA, J.A.: \u201cDesaf\u00edos y retos que plantean las decisiones automatizadas y los perfilados para los derechos fundamentales\u201d. Estudios de Deusto. <em>Revista de Derecho P\u00fablico <\/em>68 (2), p. 330. Disponible en https:\/\/revista- estudios.revistas.deusto.es\/article\/view\/1954\/2418.)<\/p>\n<p>Tambi\u00e9n es oportuno recordar que la RAE lo define como \u201c<em>un conjunto ordenado y finito de operaciones que permite hallar la soluci\u00f3n a un problema<\/em>\u201d.<\/p>\n<p>MOLINA NAVARRETE, C.: \u201c\u00abDuelo al sol\u00bb (digital). \u00bfUn algoritmo controla mi trabajo? S\u00ed; a tu empresa tambi\u00e9n\u201d. <em>Revista de Trabajo y Seguridad Social<\/em>. CEF, 457 (abril 2021), p. 7. \u201c<em>el algoritmo es (ser\u00eda) un orden l\u00f3gico de procesos que, sobre la base de reglas finitas, predefinidas e inequ\u00edvocas, permite automatizar una soluci\u00f3n objetivada, eficaz y eficiente a un problema operativ<\/em>o\u201d. De todas las definiciones<\/p>\n<p>propuestas doctrinalmente, ponemos nuestra atenci\u00f3n por su simplificaci\u00f3n y acierto: \u201c<em>un algoritmo es una receta<\/em>\u201d. Contundente y f\u00e1cil de comprender. As\u00ed se expresa MERCADER UGUINA, J. R.: \u201cAlgoritmos y derecho del trabajo\u201d. <em>Actualidad Jur\u00eddica Ur\u00eda Men\u00e9ndez<\/em>, 52, 2019, p. 63.<\/p>\n<p>Y, aunque en el presente nuestra mirada se va a dirigir a la respuesta automatizada y autom\u00e1tica, recu\u00e9rdese que tal y como indica BELTRAN DE HEREDIA RU\u00cdZ, I.: \u201cLa irrupci\u00f3n de los algoritmos en el Derecho del Trabajo\u201d, [V\u00eddeo] <em>op.cit. <\/em>Para definir propiamente un algoritmo no se precisa que exista una m\u00e1quina; expresivamente, ilustra que una receta de cocina tambi\u00e9n es un algoritmo.<\/p>\n<p><sup>17<\/sup> V\u00e9ase, SORIANO ARNANZ, A.: \u201cDecisiones automatizadas y discriminaci\u00f3n: aproximaci\u00f3n y propuestas generales\u201d. Revista General de Derecho Administrativo n\u00fam.56 (2021). <em>op.cit. <\/em>Define al algoritmo de manera muy esquem\u00e1tica: \u201c<em>un algoritmo constituye una serie de instrucciones dirigidas a la resoluci\u00f3n de un problema paso a paso<\/em>\u201d.<\/p>\n<p><sup>18<\/sup> SANCHO CAPARRINI, F.: (23 de septiembre de 2017). \u201cIntroducci\u00f3n al Aprendizaje Autom\u00e1tico\u201d. Fernando Sancho Caparrini (us.es) \u201cIntroducci\u00f3n al aprendizaje autom\u00e1tico\u201d que viene definido como la \u201c<em>rama de la Inteligencia Artificial que tiene como objetivo desarrollar t\u00e9cnicas que permitan a las computadoras aprender. De forma m\u00e1s concreta, se trata de crear algoritmos capaces de generalizar comportamientos y reconocer patrones a partir de una informaci\u00f3n suministrada en forma de ejemplos. Es, por lo tanto, un proceso de inducci\u00f3n del conocimiento, es decir, un m\u00e9todo que permite obtener por generalizaci\u00f3n un enunciado general a partir de enunciados que describen casos particulares<\/em>\u201d.<\/p>\n<p><sup>19<\/sup> RIVAS VALLEJO, P.: <em>La aplicaci\u00f3n de la Inteligencia Artificial al trabajo y su impacto discriminatorio<\/em>, <em>op.cit.<\/em>,<\/p>\n<ol start=\"107\">\n<li>107. \u201c<em>Los sistemas de aprendizaje profundo detectan las caracter\u00edsticas ocultas en los datos, para perfeccionar su funcionamiento y sus resultados. Por ello se le denomina computaci\u00f3n cognitiva<\/em>\u201d.<\/li>\n<\/ol>\n<p><sup>20<\/sup> Ib\u00eddem. La peligrosidad de este tipo de aprendizaje viene dada cuando el algoritmo se transforma \u201c<em>en un poderoso predictor<\/em>\u201d por cuanto \u201c<em>La transparencia de su red neuronal virtual se va diluyendo, escapando incluso al conocimiento de sus dise\u00f1adores, que lo entrenaron precisamente para que pudiera aumentar de manera automatizada su profundidad de an\u00e1lisis sin necesidad de intervenci\u00f3n humana<\/em>\u201d.<\/p>\n<p>Por su parte, BELTRAN DE HEREDIA RU\u00cdZ, I.: \u201cLa irrupci\u00f3n de los algoritmos en el Derecho del Trabajo\u201d, <em>op.cit. <\/em>expone una inquietante verdad: los programadores de los algoritmos cuando estos desarrollan o ejecutan el aprendizaje profundo desconocen el camino que han empleado aquellos para llegar a una conclusi\u00f3n o decisi\u00f3n y \u201c<em>no se puede deshacer el camino<\/em>\u201d para intentar averiguar c\u00f3mo se ha alcanzado ese resultado. Este autor pone de manifiesto otra aseveraci\u00f3n inquietante: no se est\u00e1 intentando llegar a la mejor respuesta o soluci\u00f3n solo \u201c<em>la mayor probabilidad posible<\/em>\u201d.<\/p>\n<p><sup>21<\/sup> Reflexiones en torno a c\u00f3mo la cesi\u00f3n de datos forma parte de lo cotidiano en nuestras vidas, en donde permanente asistimos a la \u201c<em>sugerencia<\/em>\u201d y \u201c<em>orientaci\u00f3n en todas y cada una de nuestras elecciones y decisiones: desde el tiempo y el camino a seguir para llegar a nuestro destino, a los restaurantes o tiendas a las que ir, la ropa o los zapatos que comprar, los libros que adquirir o leer (electronic butler), pasando por las propuestas de qu\u00e9 pel\u00edculas ver o qu\u00e9 tipo de m\u00fasica, seg\u00fan nuestras elecciones previas, o\u00edr. Y todo ello sin olvidar, lo que a mi juicio resulta a\u00fan m\u00e1s preocupante, con qu\u00e9 personas contactar y, sobre todo, qu\u00e9 noticias leer o visualizar en nuestras cada vez m\u00e1s segmentadas -pero, al parecer, importantes- redes sociale<\/em>s.\u201d Vid. CALVO GALLEGO, F.J.: Tomada de una intervenci\u00f3n oral.<\/p>\n<p><sup>22<\/sup> SERRANO FALC\u00d3N, C.: (1 de diciembre de 2021). \u201cProceso de contrataci\u00f3n pol\u00edtica de empleo y uso de algoritmos\u201d. [V\u00eddeo] en Jornada Discriminaci\u00f3n Algor\u00edtmica laboral (1\/diciembre\/2021). UAB. Discriminaci\u00f3n algor\u00edtmica laboral, jornada 1 dic 2021, UB &#8211; YouTube<\/p>\n<p><sup>23<\/sup> De nuevo, por todos, RIVAS VALLEJO P.: <em>La aplicaci\u00f3n de la Inteligencia Artificial al trabajo y su impacto discriminatorio<\/em>, <em>op.cit. <\/em>pp. 106-108.<\/p>\n<p><sup>24<\/sup> Ib\u00eddem, p. 108. \u201c<em>El aprendizaje por refuerzo puede reforzar o combinarse con el aprendizaje profundo para dar un paso m\u00e1s, al integrar la psicolog\u00eda conductivista en el aprendizaje autom\u00e1tico para entrenar al algoritmo en la elecci\u00f3n de las mejores acciones para maximizar el resultado<\/em>\u201d.<\/p>\n<p><sup>25<\/sup> BELTRAN DE HEREDIA RU\u00cdZ, I.: La irrupci\u00f3n de los algoritmos en el Derecho del Trabajo. [V\u00eddeo].<\/p>\n<p><em>op.cit.<\/em><\/p>\n<p><sup>26<\/sup> Por se\u00f1alar el m\u00e1s conocido: HORWARD GARDNER (<em>Inteligencias m\u00faltiples: la teor\u00eda en la pr\u00e1ctica. <\/em>Ed. Paid\u00f3s. 2019) puso de manifiesto la existencia de \u201cinteligencias m\u00faltiples\u201d abandonando as\u00ed el concepto un\u00edvoco de inteligencia que lo asimilaba m\u00e1s a una serie de capacidades de asimilaci\u00f3n y memor\u00edsticas, en las que se obviaban otras dimensiones que nos definen como seres humanos y que forman parte por tanto de la denominada inteligencia humana. As\u00ed, este autor se\u00f1alaba que no exist\u00eda un \u00fanico tipo de inteligencia, destacando la inteligencia musical, corporal-cinest\u00e9sica, ling\u00fc\u00edstica, l\u00f3gico-matem\u00e1tica, espacial, interpersonal, intrapersonal, naturalista,<\/p>\n<p>As\u00ed pues, y con independencia de la evoluci\u00f3n que con seguridad experimentar\u00e1n las m\u00e1quinas en orden a la obtenci\u00f3n de respuestas autom\u00e1ticas y eficaces para el ser humano, el concepto de \u201cinteligencia\u201d atribuido a estos seres inertes, una vez superado el inicial desconcierto, nos hace preguntarnos acerca de cu\u00e1l de estas opciones de inteligencia humana es la que se refiere cuando hablamos de inteligencia artificial.<\/p>\n<p>En definitiva, entendemos que es razonable pensar que lo que hoy conceptuamos como parte integrante de esa IA en el futuro m\u00e1s o menos pr\u00f3ximo no sea concebido de tal manera. Creemos que esta idea es ilustrada con lo que ya ha ocurrido en relaci\u00f3n a lo que antes entend\u00edamos pod\u00eda hacer un robot y c\u00f3mo la ingeniera humana ha perfeccionado este para realizar incluso funciones que, en principio, se atribu\u00edan como genuinamente humanas. Una muestra de lo que las m\u00e1quinas &#8211; inteligencia artificial- ha evolucionado en AL-RODHAN, N.: \u201cAgentes de Inteligencia Artificial: prerrequisitos\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 sobre\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 derechos\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 y\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 dignidad\u201d.\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 Disponible\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 en Agentes_de_Inteligencia_Artificial_prere.pdf<\/p>\n<p>\u00c1LVAREZ CUESTA, H.: \u201cDimensi\u00f3n jur\u00eddica de la IA en el derecho de la Uni\u00f3n Europea\u201d [V\u00eddeo] en Jornada Discriminaci\u00f3n Algor\u00edtmica laboral (1\/diciembre\/2021). UAB. Discriminaci\u00f3n algor\u00edtmica laboral, jornada 1 dic 2021, UB &#8211; YouTube. Se detiene la autora en la evoluci\u00f3n experimentada acerca del alcance del t\u00e9rmino inteligencia artificial y c\u00f3mo en la actualidad no es preciso que nos encontremos ante un robot para poder hablar de inteligencia artificial pues \u201c<em>no es necesario que tenga un sustrato f\u00edsico<\/em>\u201d y de ah\u00ed que nos hable del \u201c<em>cerebro flotando<\/em>\u201d.<\/p>\n<p>La futura denominada Ley de Inteligencia Artificial (UE) actualmente en fase de propuesta, es consciente de la volatilidad del t\u00e9rmino y ya en la Exposici\u00f3n de Motivos (5.2.1) expresa que \u201c<em>La definici\u00f3n de \u201csistema de IA\u201d que figura en el marco jur\u00eddico pretende ser lo m\u00e1s tecnol\u00f3gicamente neutra posible y resistir al paso del tiempo lo mejor posible, habida cuenta de la r\u00e1pida evoluci\u00f3n tecnol\u00f3gica y del mercado en relaci\u00f3n con la IA<\/em>\u201d. De esta forma, en el art.3 define el sistema de inteligencia artificial como \u201c<em>el software que se desarrolla empleando una o varias de las t\u00e9cnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar informaci\u00f3n de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interact\u00faa<\/em>\u201d.<\/p>\n<p><sup>27<\/sup> V\u00e9ase, RIVAS VALLEJO, P.: <em>La aplicaci\u00f3n de la Inteligencia Artificial al trabajo., op.cit.<\/em>, p. 463 (glosario): \u201c<em>Para el Consejo Econ\u00f3mico y Social Europeo es \u201cla disciplina tendente a utilizar las tecnolog\u00edas digitales para crear sistemas capaces de reproducir de forma aut\u00f3noma las funciones cognitivas humanas, incluida la captaci\u00f3n de datos y formas de comprensi\u00f3n y adaptaci\u00f3n (soluci\u00f3n de problemas, razonamiento y aprendizaje autom\u00e1ticos<\/em>)\u201d (Dictamen Inteligencia artificial: anticipar su impacto en el trabajo para garantizar una transici\u00f3n justa, punto 2.2). Por su parte, la Comisi\u00f3n Europea la define, en su Libro blanco sobre la inteligencia artificial -un enfoque europeo orientado a la excelencia y la confianza, como colecci\u00f3n de tecnolog\u00edas que combina datos, algoritmos y capacidad de computaci\u00f3n.<\/p>\n<p><sup>28<\/sup> La Carta antes mencionada, como ya tuvimos la oportunidad de indicar cuando abordamos el concepto de algoritmo, incluye un glosario para definir los t\u00e9rminos a los que se aluden en este instrumento.<\/p>\n<p><sup>29<\/sup> FUMERO DIOS, I.S.: \u201cCap\u00edtulo XVI. La gesti\u00f3n de los riesgos psicosociales en entornos de trabajo robotizados y dotados de IA\u201d en VV.AA.: <em>Accidentes de trabajo y enfermedades profesionales. Experiencias y desaf\u00edos de una protecci\u00f3n social centenaria<\/em>. Tomo II. IV Congreso Internacional y XVII Congreso Nacional de la Asociaci\u00f3n Espa\u00f1ola de Salud y Seguridad Social. Laborum. 2020, p. 482.<\/p>\n<p><sup>30<\/sup> RIVAS VALLEJO, P.: <em>La aplicaci\u00f3n de la Inteligencia Artificial en el trabajo<\/em>, <em>op.cit.<\/em>, p. 458. Otra definici\u00f3n de esta autora. En el glosario se refleja que se trata del \u201c<em>sistema de autoaprendizaje autom\u00e1tico en el campo de las redes neuronales en inteligencia computacional, basado en el manejo de datos, que va construyendo capas de datos que alimentan y mejoran el algoritmo, lo que implica que el algoritmo aprende a partir de las distintas capas de datos que se le van introduciendo, mejorando los patrones anteriores, y que el aprendizaje autom\u00e1tico va mejorando a medida que progresa en su gesti\u00f3n de los datos introducidos, depurando su funcionamiento y aproxim\u00e1ndose a los mecanismos neuronales del cerebro humano<\/em>\u201d. La autora incluye tambi\u00e9n ejemplos relativos a las plataformas \u201c<em>IBM Watson Developer Cloud\u2026, Amazon Machine Learning\u2026, Azure Machine Learning\u2026, TensorFlow\u2026 o BigML<\/em>\u201d.<\/p>\n<p><sup>31<\/sup> Conceptos todos ellos extra\u00eddos del Proyecto de Texto de la Recomendaci\u00f3n sobre la \u00c9tica de la Inteligencia Artificial (UNESCO. Par\u00eds. 41\u00aa reuni\u00f3n. 9 a 24 de noviembre de 2021).<\/p>\n<p><sup>32<\/sup> M\u00e1ximas tambi\u00e9n a las que detenidamente dedica su atenci\u00f3n el Proyecto de Texto de la Recomendaci\u00f3n sobre la \u00c9tica de la Inteligencia Artificial anteriormente indicada.<\/p>\n<p><sup>33<\/sup> S\u00c1NCHEZ ZAPLANA, A.: \u201cBreve introducci\u00f3n a la Inteligencia Artificial para todos los p\u00fablicos\u201d. <em>El Consultor de los Ayuntamientos. <\/em>Revista Especializada en Administraci\u00f3n Local. Julio 2019. n\u00fam. 10. Versi\u00f3n electr\u00f3nica (Smarteca). \u201c\u2026<em>desde que encendemos nuestro smartphone, localizamos el mejor trayecto para un destino, utilizamos nuestro asistente personal para preguntarle cu\u00e1l es la farmacia de guardia m\u00e1s cercana, encendemos alg\u00fan servicio de streaming de video y nos aconseja la \u00faltima serie estrenada (que encima me gusta nada m\u00e1s comenzar a verla), escuchamos una lista de canciones recomendadas por una APP, compramos un art\u00edculo en una web del retail (de algo que necesitaba encima), se nos clasifican los mails que nos ofrecen una herencia de millones de $ autom\u00e1ticamente en la bandeja de SPAM, uso un traductor online de chino a espa\u00f1ol, etc., estamos usando la Inteligencia Artificial\u2026 el tema es que hay muchos m\u00e1s usos de la inteligencia artificial que no son tan conocidos como la lucha contra la ciberdelincuencia, contra la pobreza extrema, contra el cambio clim\u00e1tico, o algo menos sexy como elegir entre miles de curriculums cu\u00e1l es el que m\u00e1s encaja con las necesidades laborales o el propio sistema financiero<\/em>\u201d.<\/p>\n<p><sup>34<\/sup> Ib\u00eddem.<\/p>\n<p><sup>35<\/sup> MERCADER UGUINA, J.R.: \u201cAlgoritmos: personas y n\u00fameros en el Derecho Digital del trabajo\u201d, <em>Diario La Ley<\/em>, N\u00ba 48, Secci\u00f3n Ciberderecho, 23 de febrero de 2021. Las posibilidades que entra\u00f1a el uso de la inteligencia artificial son realmente asombrosas. As\u00ed, en China, se emplea de forma generalizada un software de reconocimiento facial que permite discernir -a trav\u00e9s de un sistema de c\u00e1maras impulsado por la empresa Huawei- para reconocer qui\u00e9nes pertenecen a una etnia (aparte de la edad y sexo de la persona captada por la c\u00e1mara). La inteligencia artificial tambi\u00e9n tiene su reflejo en el \u00e1mbito policial. Pa\u00edses como EEUU, Reino Unido, Alemania o Suiza emplean m\u00e9todos predictivos para reforzar actuaciones policiales en sectores concretos (as\u00ed, fundamentalmente, barrios marginales) o calibrar las posibilidades que tienen los sujetos de delinquir (\u201cpolic\u00eda predictiva\u201d). Algoritmos de predicci\u00f3n policial: cuando la delincuencia tiene sesgo &#8211; Hablemos de Tecnolog\u00edas (hablemosdetecnologias.com) Otro ejemplo: Tay (un <em>bot <\/em>de conversaci\u00f3n de inteligencia artificial creado por Microsoft) se volvi\u00f3 racista, antisemista y sexista. &#8211; BBC News Mundo.<\/p>\n<p><sup>36<\/sup> La proyecci\u00f3n de la inteligencia artificial, de los algoritmos, en todas las facetas ha sido puesta de manifiesto por la doctrina -no solo laboralista-. Por supuesto, en el campo de salud, pero tambi\u00e9n en sectores como la agricultura, medio ambiente, sanidad, contrataci\u00f3n p\u00fablica o los relacionados con la seguridad interior (entre otros). \u00c1LVAREZ CUESTA, H.: \u201cDimensi\u00f3n jur\u00eddica de la IA en el derecho de la Uni\u00f3n Europea\u201d [V\u00eddeo] <em>op.cit.<\/em><\/p>\n<p><sup>37<\/sup> \u00c1LVAREZ CUESTA, H.: \u201cDimensi\u00f3n jur\u00eddica de la IA en el derecho de la Uni\u00f3n Europea\u201d. [V\u00eddeo] <em>op.cit.<\/em>: se refiere al proceso de di\u00e1logo bilateral entablado entre la UE con Canad\u00e1 y Jap\u00f3n, as\u00ed como<\/p>\n<p>las previsiones futuras de entablarlo con lugares como India, Australia o Singapur, as\u00ed como con EEUU. N\u00f3tese -como advierte la ponente- que, por el momento, este intercambio de opiniones no se ha llevado a cabo con un referente en la materia que hoy abordamos: China. Rescatando las palabras del presidente del Comit\u00e9 Especial del Parlamento sobre Inteligencia Artificial en la Era Digital \u00ab<em>Europa necesita desarrollar una inteligencia artificial que genere confianza, elimine cualquier tipo de sesgo y discriminaci\u00f3n, contribuya al bien com\u00fan al tiempo que asegure que las empresas y la <\/em>industria <em>prosperan y generan prosperidad econ\u00f3mica<\/em>\u201d. Discurso de Dragos Tudorache, eurodiputado rumano por los liberales de Renew Europe. Regulaci\u00f3n de la inteligencia artificial en la UE: la propuesta del Parlamento | Noticias | Parlamento Europeo (europa.eu) (fecha de consulta: 21 de octubre de 2021).<\/p>\n<p><sup>38<\/sup> Vid. \u00c1LVAREZ CUESTA, H.: \u201cDimensi\u00f3n jur\u00eddica de la IA en el derecho de la Uni\u00f3n Europea\u201d [V\u00eddeo] <em>op.cit.<\/em><\/p>\n<p><sup>39<\/sup> La Recomendaci\u00f3n CM\/Rec (2020) 1 del Comit\u00e9 de Ministros a los Estados miembros sobre los impactos de los sistemas algor\u00edtmicos en los derechos humanos, de 8 de abril de 2020 \u201c<em>Los Estados deben incentivar la innovaci\u00f3n tecnol\u00f3gica de acuerdo con los derechos humanos existentes, incluidos los derechos sociales y las normas laborales y de empleo reconocidas internacionalmente<\/em>\u201d.<\/p>\n<p><sup>40<\/sup> El art.5 desglosa las pr\u00e1cticas prohibidas. La enumeraci\u00f3n de estas nos sit\u00faa en una realidad de ciencia ficci\u00f3n digna de un argumento de pel\u00edcula futurista. La inquietud que asalta al lector es considerable; se nos est\u00e1 alertando de que estas pr\u00e1cticas existen. Por destacar solo una: \u201c\u2026 <em>t\u00e9cnicas subliminales que trasciendan la conciencia de una persona para alterar de manera sustancial su comportamiento de un modo que provoque o sea probable que provoque perjuicios f\u00edsicos o psicol\u00f3gicos a esa persona o a otra<\/em>\u201d. N\u00f3tese que, siendo conscientes de la posible innovaci\u00f3n tecnol\u00f3gica, se arbitran f\u00f3rmulas -art.6- para, siempre que concurran las circunstancias normativas se\u00f1aladas, se puedan incorporar en la lista de sistemas prohibidos otras pr\u00e1cticas futuras.<\/p>\n<p><sup>41<\/sup> El art.6 reza: \u201c<em>1. Un sistema de IA se considerar\u00e1 de alto riesgo cuando re\u00fana las dos condiciones que se indican a continuaci\u00f3n, con independencia de si se han introducido en el mercado o se ha puesto en servicio sin estar integrado en los productos que se mencionan en las letras a) y b): <\/em><\/p>\n<p><em>a) el sistema de IA est\u00e1 destinado a ser utilizado como componente de seguridad de uno de los productos contemplados en la legislaci\u00f3n de armonizaci\u00f3n de la Uni\u00f3n que se indica en el anexo II, o es en s\u00ed mismo uno de dichos productos; <\/em><\/p>\n<p><em>b) conforme a la legislaci\u00f3n de armonizaci\u00f3n de la Uni\u00f3n que se indica en el anexo II, el producto del que el sistema de IA es componente de seguridad, o el propio sistema de IA como producto, debe someterse a una evaluaci\u00f3n de la conformidad realizada por un organismo independiente para su introducci\u00f3n en el mercado o puesta en <\/em><em>2.Adem\u00e1s de los sistemas de IA de alto riesgo mencionados en el apartado 1, tambi\u00e9n se considerar\u00e1n de alto riesgo los sistemas de IA que figuran en el anexo III<\/em>.\u201d<\/p>\n<p><sup>42<\/sup> El an\u00e1lisis de la actual propuesta de Reglamento de Inteligencia Artificial (del Parlamento Europeo y del Consejo) califica -Anexo III- como sistema de inteligencia artificial de alto riesgo con relaci\u00f3n al empleo: \u201c<em>4. Empleo, gesti\u00f3n de los trabajadores y acceso al autoempleo: a) sistemas de IA destinados a utilizarse para la contrataci\u00f3n o selecci\u00f3n de personas f\u00edsicas, especialmente para anunciar puestos vacantes, clasificar y filtrar solicitudes o evaluar a candidatos en el transcurso de entrevistas o pruebas;<\/em><em>b) IA destinada a utilizarse para tomar decisiones relativas a la promoci\u00f3n y resoluci\u00f3n de relaciones contractuales de \u00edndole laboral, a la asignaci\u00f3n de tareas y al seguimiento y evaluaci\u00f3n del rendimiento y la conducta de las personas en el marco de dichas relaciones\u201d. <\/em>En relaci\u00f3n a la Seguridad Social, en el apartado 5 de ese Anexo III: \u201c<em>Acceso y disfrute de servicios p\u00fablicos y privados esenciales y sus beneficios: <\/em><em>a) sistemas de IA destinados a ser utilizados por las autoridades p\u00fablicas o en su nombre para evaluar la admisibilidad de las personas f\u00edsicas para acceder a prestaciones y servicios de asistencia p\u00fablica, as\u00ed como para conceder, reducir, retirar o recuperar dichas prestaciones y servicios<\/em>\u201d.<\/p>\n<p><sup>43<\/sup> Art. 52. Garantiza que el usuario conozca que quien le est\u00e1 atendiendo o con quien est\u00e1n interactuando -si fuera el caso- no es un humano que incluye no obstante la excepci\u00f3n al cumplimiento de esta obligaci\u00f3n cuando se trate de \u201c<em>\u2026situaciones en las que esto resulte evidente debido a las circunstancias y al contexto de su utilizaci\u00f3n<\/em>\u201d. Debiendo tambi\u00e9n ser informados del funcionamiento al usuario afectado por un \u201c<em>sistema de reconocimiento de emociones o de un sistema de categorizaci\u00f3n biom\u00e9trica<\/em>\u201d, as\u00ed como de aquellos contenidos -\u201c<em>imagen, sonido o v\u00eddeo<\/em>\u201d- \u201c\u2026que se asemeje notablemente a personas, objetos, lugares u otras entidades o sucesos existentes, y que <em>pueda inducir err\u00f3neamente a una persona a pensar que son aut\u00e9nticos o ver\u00eddicos (ultrafalsificaci\u00f3n<\/em>)\u201d.<\/p>\n<p><sup>44<\/sup> Art. 69, En su p\u00e1rrafo 1 encomienda a la Comisi\u00f3n y a los Estados miembros la tarea de fomento y facilitaci\u00f3n en \u201c\u2026 <em>la elaboraci\u00f3n de c\u00f3digos de conducta destinados a promover la aplicaci\u00f3n voluntaria de los requisitos establecidos en el t\u00edtulo III, cap\u00edtulo 2, a sistemas de IA distintos de los de alto riesgo<\/em>\u2026\u201d<\/p>\n<p><sup>45<\/sup> \u00c1LVAREZ CUESTA, H.: \u201cDimensi\u00f3n jur\u00eddica de la IA en el derecho de la Uni\u00f3n Europea\u201d. [V\u00eddeo]<\/p>\n<p><em>op.cit.<\/em><\/p>\n<p><sup>46<\/sup> Aplicar\u00edamos, por tanto, los principios relativos a la transparencia (art.13), vigilancia humana (art.14), as\u00ed como el relativo a la precisi\u00f3n, solidez y ciberseguridad (art.15).<\/p>\n<p><sup>47<\/sup> Arts. 16 a 23. B\u00e1sicamente, y siguiendo tambi\u00e9n a \u00c1LVAREZ CUESTA, H.: \u201cDimensi\u00f3n jur\u00eddica de la IA en el derecho de la Uni\u00f3n Europea\u201d. [V\u00eddeo], <em>op.cit. <\/em>las obligaciones son \u201c<em>gesti\u00f3n de calidad, elaborar una documentaci\u00f3n t\u00e9cnica, elaborar una evaluaci\u00f3n de conformidad ex ante, de registro, correctoras, de informaci\u00f3n a autoridades nacionales y a organismos notificados\u201d.<\/em><\/p>\n<p><sup>48<\/sup> En el \u00e1mbito laboral, usuario es el empresario, a quien se le debe informaci\u00f3n sobre los aspectos m\u00e1s definitorios de los sistemas de inteligencia artificial. Sin perder de vista la bondad de este mandato, \u00c1LVAREZ CUESTA, H.: \u201cDimensi\u00f3n jur\u00eddica de la IA en el derecho de la Uni\u00f3n Europea\u201d [V\u00eddeo] <em>op.cit.<\/em>, se critica la ausencia de extender esa informaci\u00f3n a la representaci\u00f3n de los trabajadores. Art. 29, relativo al uso de conformidad con las instrucciones de estos sistemas, pertinencia de los datos, informaci\u00f3n al proveedor o distribuidor si detectan alg\u00fan riesgo.<\/p>\n<p><sup>49<\/sup> Nuevamente, \u00c1LVAREZ CUESTA, H.: \u201cDimensi\u00f3n jur\u00eddica de la IA en el derecho de la Uni\u00f3n Europea\u201d. [V\u00eddeo] <em>op.cit. <\/em>Destaca varios aspectos no abordados. A t\u00edtulo de ejemplo, en lo que aqu\u00ed nos ata\u00f1e, sobre la omisi\u00f3n del tratamiento de la discriminaci\u00f3n.<\/p>\n<p>Desde nuestro modesto punto de vista, no es el objeto de una Ley como esta el descender a un \u00e1mbito jur\u00eddico concreto. La misi\u00f3n es establecer un campo de actuaci\u00f3n lo suficientemente gen\u00e9rico como para que todos los pa\u00edses de la Uni\u00f3n -con independencia de cu\u00e1l sea la intensidad en la que se utilizan sistemas de inteligencia artificial- tengan un marco com\u00fan, aplicable a todas las dimensiones de la realidad. Atender espec\u00edficamente a cada uno de los problemas que se plantean en los diferentes sectores jur\u00eddicos es perder la perspectiva bajo la cual est\u00e1 siendo concebido este marco general. Este es el primer paso y sobre los Estados recae la obligaci\u00f3n de mejorar, garantizar y velar porque la inteligencia artificial se ajuste a los par\u00e1metros m\u00e1s adecuados en cada una de las ramas del ordenamiento jur\u00eddico interno, sin descartar la posibilidad de que a trav\u00e9s de una acci\u00f3n conjunta y futura se pueda -acaso a trav\u00e9s de Directivas- llevar a cabo una regulaci\u00f3n m\u00e1s pormenorizada y ajustada a las necesidades concretas que se hayan planteado o que se puedan idear.<\/p>\n<p><sup>50<\/sup> Adoptada esta por la Comisi\u00f3n Europea para la Eficiencia de la Justicia con fecha 3-4 de diciembre de 2018. En ella se hace un llamamiento al respeto de los derechos fundamentales, haciendo expresa referencia al derecho de no discriminaci\u00f3n. Tambi\u00e9n se alude a la calidad y seguridad del procesamiento de los datos judiciales, as\u00ed como la transparencia, imparcialidad, equidad y la m\u00e1xima \u201c<em>bajo control de usuario<\/em>\u201d. T\u00e9ngase en cuenta que, a pesar de su t\u00edtulo, existe doctrina cualificada que entiende (de la lectura de la misma) que pueden aplicarse sus preceptos cuando se produce la gesti\u00f3n de personal de las empresas. de lo que se concluye la posible aplicaci\u00f3n a los entes privados. As\u00ed, OLARTE ENCABO, S.: (26 de noviembre de 2021). \u201cLos criterios retributivos y su modelaci\u00f3n a trav\u00e9s de IA: propuestas de mejora\u201d. [Sesi\u00f3n de conferencia]. Discriminaci\u00f3n algor\u00edtmica en el trabajo. Universidad de Granada.<\/p>\n<p><sup>51<\/sup> Este deber se consigna expresamente en el art.13 de la Ley de Inteligencia Artificial.<\/p>\n<p><sup>52<\/sup> Estos principios -con sus correspondientes definiciones- son puestas de manifiesto por PRECIADO DOM\u00c9NECH, C.H.: \u201cAlgoritmos y discriminaci\u00f3n en la relaci\u00f3n laboral\u201d, <em>op.cit.<\/em>, p. 9.<\/p>\n<p><sup>53<\/sup> Dictamen CESE: \u201cInteligencia artificial: anticipar su impacto en el trabajo para garantizar una transici\u00f3n justa\u201d, Dictamen de iniciativa, 2018\/C 440\/01. Insistiendo en esta idea, a t\u00edtulo ejemplificativo, MOLINA NAVARRETE, C.: \u201c\u00abDuelo al sol\u00bb (digital). \u00bfUn algoritmo controla mi trabajo? S\u00ed; a tu empresa tambi\u00e9n\u201d. <em>Revista de Trabajo y Seguridad Social<\/em>. CEF, 457 (abril 2021), p. 8.<\/p>\n<p><sup>54<\/sup> Para un comentario extenso, vid. SEP\u00daLVEDA G\u00d3MEZ, M.: \u201cEl acuerdo marco europeo sobre digitalizaci\u00f3n. El necesario protagonismo de la norma pactada\u201d. <em>Temas Laborales <\/em>n\u00fam. 158\/2021. Pp. 213-244.<\/p>\n<p><sup>55<\/sup> GOERLICH PESET, J.M: (6 de noviembre de 2021). VII Jornadas de Derecho Social de la Uni\u00f3n Europea. [V\u00eddeo]. En AEDTSS. <em>VII Jornadas de Derecho Social de la Uni\u00f3n Europea <\/em>(06\/11\/2020) &#8211; YouTube<\/p>\n<p>Esquemas variados en funci\u00f3n de realidades nacionales, sectoriales y empresariales.<\/p>\n<p><sup>56<\/sup> El sindicato UGT, el 8 de febrero de 2021, propugn\u00f3 la necesidad de promulgar una Ley de Justicia Algor\u00edtmica en las relaciones laborales. LAS DECISIONES ALGOR\u00cdTMICAS EN LAS RELACIONES LABORALES (ugt.es)<\/p>\n<p><sup>57<\/sup> MOLINA NAVARRETE, C.: \u201c<em>Big data <\/em>y relaciones laborales\u201d [V\u00eddeo] <em>op.cit.<\/em><\/p>\n<p><sup>58<\/sup> Junto a este precepto, la doctrina especializada (RIVAS VALLEJO P.: \u201cCombatir la discriminaci\u00f3n algor\u00edtmica a trav\u00e9s de instrumentos jur\u00eddicos y formativos: la formaci\u00f3n en perspectiva de g\u00e9nero de los programadores y desarrolladores\u201d. (26 de noviembre de 2021) [Sesi\u00f3n de conferencia]. Universidad de Granada, completa el cuadro que, a la postre, va a suponer las excepciones a la potestad de no compartir y desvelar el algoritmo, tanto el art.2.c) de la Ley 1\/2019 de 20 de febrero de Secretos Empresariales y el art.5 de la Directiva 2016\/943.<\/p>\n<p>MERCADER UGUINA, J. R. (2021). \u201cDiscriminaci\u00f3n algor\u00edtmica y derecho granular: nuevos retos para la igualdad en la era del <em>big data<\/em>\u201d, <em>op.cit.<\/em>, p. 6, resalta c\u00f3mo este precepto puede considerarse como la \u201c<em>primera materializaci\u00f3n<\/em>\u201d de una de las necesidades advertidas por el Dictamen del Comit\u00e9 Econ\u00f3mico y Social Europeo consistente en \u201c\u2026<em>consultar e informar a los trabajadores y sus representantes a la hora de introducir sistemas de IA que pudieran provocar cambios en la organizaci\u00f3n del trabajo, la vigilancia y su control, as\u00ed como en los sistemas de evaluaci\u00f3n y contrataci\u00f3n de los trabajadores<\/em>\u201d.<\/p>\n<p><sup>59<\/sup> Inclusi\u00f3n esta propiciada por el Real Decreto Ley 9\/2021, de 11 de mayo. La incorporaci\u00f3n de este nuevo apartado ha planteado nuevos interrogantes para nuestra doctrina -espec\u00edficamente, OLARTE<\/p>\n<p>ENCABO, S.: \u201cLos criterios retributivos y su modelaci\u00f3n a trav\u00e9s de IA: propuestas de mejora\u201d. [Sesi\u00f3n de conferencia]. <em>op.cit.<\/em>&#8211; que se pregunta acerca del alcance de la obligaci\u00f3n y si esas garant\u00edas se aplicar\u00edan \u00fanicamente a las empresas que emplean la plataforma para prestar el servicio o su \u00e1mbito de aplicaci\u00f3n se extender\u00eda a cualquier entidad empresarial. Se decanta por la segunda posici\u00f3n (en el mismo sentido, GARRIGUES GIM\u00c9NEZ, A.: \u201cHerramientas sindicales: la negociaci\u00f3n colectiva.\u201d (26 de noviembre de 2021) [Sesi\u00f3n de conferencia]. Universidad de Granada.<\/p>\n<p><sup>60<\/sup> A fecha del cierre del presente (6 de enero de 2022). Convenio colectivo para los establecimientos financieros de cr\u00e9dito (BOE de 15 de octubre de 2021, n\u00fam. 247). En el art.35 incorpora los mencionados \u201cderechos digitales\u201d, dedicando un apartado -el 5- a los \u201c<em>derechos ante la inteligencia artificial. Las nuevas herramientas basadas en algoritmos pueden aportar valor hacia una gesti\u00f3n m\u00e1s eficiente de las Empresas, ofreciendo mejoras en sus sistemas de gesti\u00f3n. Sin embargo, el desarrollo creciente de la aportaci\u00f3n de la tecnolog\u00eda requiere de una implantaci\u00f3n cuidadosa cuando se aplica en el \u00e1mbito de las personas. Por ello, las personas trabajadoras tienen derecho a no ser objeto de decisiones basadas \u00fanica y exclusivamente en variables automatizadas, salvo en aquellos supuestos previstos por la Ley, as\u00ed como derecho a la no discriminaci\u00f3n en relaci\u00f3n con las decisiones y procesos, cuando ambos est\u00e9n basados \u00fanicamente en algoritmos, pudiendo solicitar, en estos supuestos, el concurso e intervenci\u00f3n de las personas designadas a tal efecto por la Empresa, en caso de discrepancia.<\/em><\/p>\n<p><em>Las Empresas informar\u00e1n a la RLT sobre el uso de la anal\u00edtica de datos o los sistemas de inteligencia artificial cuando los procesos de toma de decisiones en materia de recursos humanos y relaciones laborales se basen exclusivamente en modelos digitales sin intervenci\u00f3n humana.<\/em><\/p>\n<p><em>Dicha informaci\u00f3n, como m\u00ednimo, abarcar\u00e1 los datos que nutren los algoritmos, la l\u00f3gica de funcionamiento y la evaluaci\u00f3n de los resultados<\/em>.\u201d<\/p>\n<p>Algo menos extenso, el art.80 -tambi\u00e9n sobre derechos digitales- del XXIV Convenio colectivo del sector de la banca (Resoluci\u00f3n de 17 de marzo de 2021, BOE de 30 de marzo de 2021): \u201c<em>5. Derecho ante la inteligencia artificial. Las nuevas herramientas basadas en algoritmos pueden aportar valor hacia una gesti\u00f3n m\u00e1s eficiente de las Empresas, ofreciendo mejoras en sus sistemas de gesti\u00f3n. Sin embargo, el desarrollo creciente de la aportaci\u00f3n de la tecnolog\u00eda requiere de una implantaci\u00f3n cuidadosa cuando se aplica en el \u00e1mbito de las personas. Por ello, las personas trabajadoras tienen derecho a no ser objeto de decisiones basadas \u00fanica y exclusivamente en variables automatizadas, salvo en aquellos supuestos previstos por la Ley, as\u00ed como derecho a la no discriminaci\u00f3n en relaci\u00f3n con las decisiones y procesos, cuando ambos est\u00e9n basados \u00fanicamente en algoritmos, pudiendo solicitar, en estos supuestos, el concurso e intervenci\u00f3n de las personas designadas a tal efecto por la Empresa, en caso de discrepancia.<\/em><\/p>\n<p><em>Las Empresas informar\u00e1n a la RLT sobre el uso de la anal\u00edtica de datos o los sistemas de inteligencia artificial cuando los procesos de toma de decisiones en materia de recursos humanos y relaciones laborales se basen, exclusivamente en modelos digitales sin intervenci\u00f3n humana. Dicha informaci\u00f3n, como m\u00ednimo, abarcar\u00e1 los datos que nutren los algoritmos, la l\u00f3gica de funcionamiento y la evaluaci\u00f3n de los resultados<\/em>.\u201d<\/p>\n<p>En el Convenio Colectivo del sector de grandes almacenes (Resoluci\u00f3n de 31 de mayo de 2021, BOE 11 de junio de 2021) se prev\u00e9 la creaci\u00f3n de un Observatorio sectorial integrado por los firmantes del Convenio que, entre otras tareas, asumir\u00e1 la de prestar \u201c<em>especial atenci\u00f3n a la utilizaci\u00f3n de algoritmos que incidan en las condiciones de trabajo<\/em>\u201d (Disposici\u00f3n Transitoria Und\u00e9cima).<\/p>\n<p>Por su parte, el XVI Convenio Colectivo de la empresa ONCE y su personal (Resoluci\u00f3n de 8 de enero de 2018, BOE de 18 de enero de 2018) en el art. 73 para configurar como infracci\u00f3n del<\/p>\n<p>trabajador: \u201c<em>c.27) Descifrar, o intentar descifrar, las contrase\u00f1as, sistemas o algoritmos de cifrado y cualquier otro elemento de seguridad que intervenga en los procesos telem\u00e1ticos de la Organizaci\u00f3n<\/em>\u201d.<\/p>\n<p>Por \u00faltimo, Convenio Colectivo de la empresa Grupo Acha Movilidad-Lujua Txorierri Mungialdea,<\/p>\n<p>S.A. (Resoluci\u00f3n de 26 de febrero de 2021, BO Bizkaia 23 de junio de 2021, n\u00fam. 118). En esta ocasi\u00f3n, el algoritmo es un instrumento para ordenar el servicio de recogida de los trabajadores- conductores (art. 22).<\/p>\n<p>El Convenio Colectivo general de \u00e1mbito estatal para el sector de entidades de seguros, reaseguros y mutuas colaboradoras con la Seguridad Social (Resoluci\u00f3n de 15 de diciembre de 2021, BOE de 27 de diciembre de 2021, n\u00fam. 310). Aborda este la \u201c<em>Inteligencia artificial en las relaciones laborales\u201d (art. 14). Se declara la expresa aplicaci\u00f3n de la normativa completa de protecci\u00f3n de datos, la aplicaci\u00f3n de la \u201cDeclaraci\u00f3n Conjunta sobre Inteligencia Artificial, aprobada por los Agentes Sociales Europeos del Sector de Seguros el 16 de marzo de 2021<\/em>\u201d y, por supuesto, se ponen de manifiesto las bondades de aquella en la dimensi\u00f3n laboral. El final del precepto se\u00f1alado (el subrayado es nuestro): \u201c<em>Las empresas informar\u00e1n a la representaci\u00f3n legal de las personas trabajadoras sobre el uso de la anal\u00edtica de datos o los sistemas de inteligencia artificial cuando los procesos de toma de decisiones en materia de recursos humanos y relaciones laborales se basen exclusivamente en modelos digitales sin intervenci\u00f3n humana<\/em>.\u201d<\/p>\n<p><sup>61<\/sup> V\u00e9ase, PRECIADO DOM\u00c9NECH, C.H.: \u201cAlgoritmos y discriminaci\u00f3n en la relaci\u00f3n laboral\u201d, <em>op.cit. <\/em>pp. 13-17 que analiza el contenido del C\u00f3digo de buenas pr\u00e1cticas en protecci\u00f3n de datos para proyectos <em>big data <\/em>(Coord. ACED, E., HERAS, M.R y S\u00c1IZ, C.A), disponible en guia-codigo-de- buenas-practicas-proyectos-de-big-data.pdf (aepd.es).<\/p>\n<p><sup>62<\/sup> As\u00ed, en esta l\u00ednea se encauzan autores como FREY C.B. y OSBORNE, M.A. \u201cThe future of employment: how susceptible are Jobs to computerization?\u201d. <em>Technological Forecasting and Social Change<\/em>, 2017, 114, 254-280.<\/p>\n<p><sup>63<\/sup> Visi\u00f3n optimista encabezada por NEDELKOSKA, L. y QUINITINI, G.: \u201cAutomation, skills use and training\u201d, <em>OECD Social, Employment and Migration Working Papers<\/em>. 202. 2018.<\/p>\n<p>Rescatando manifestaciones de la doctrina laboral, GO\u00d1I SEIN, J.L.: \u201cInnovaciones tecnol\u00f3gicas, inteligencia artificial y derechos humanos en el trabajo\u201d. <em>Documentaci\u00f3n Laboral<\/em>, n\u00fam. 117, 2019. P. 61: \u201c<em>La rob\u00f3tica seguir\u00e1 siendo un subproducto humano, porque la creatividad es algo esencialmente humana. Por m\u00e1s que los robots act\u00faen con un alto grado de autonom\u00eda, y sean capaces de generar sus propias instrucciones, no hay que dejar de ver, detr\u00e1s de cada robot a la acci\u00f3n humana<\/em>\u201d. En otro momento de su trabajo (p. 63) llega a afirmar que \u201c<em>De momento, el avance de la automatizaci\u00f3n est\u00e1 siendo limitado y no se han perdido tantos puestos de trabajo como se ha venido vaticinando\u201d por lo que \u201cEn todo caso parece innegable, que se producir\u00e1 una transformaci\u00f3n de los modelos de producci\u00f3n y que ello tendr\u00e1 repercusiones laborales y sociales para el colectivo de trabajadores<\/em>\u201d.<\/p>\n<p>Por su parte, MOLINA NAVARRETE, C.: \u201c<em>Big data <\/em>y relaciones laborales\u201d [V\u00eddeo]. Expone un dato desde el cual podemos extraer nuestras propias conclusiones: \u201c<em>los pa\u00edses que han aplicado m\u00e1s big data han tenido m\u00e1s \u00e9xito (as\u00ed, China)<\/em>\u201d.<\/p>\n<p>El Foro Econ\u00f3mico Mundial, 2018: MERCADER UGUINA, J.R.: (29 de septiembre de 2021) \u201c\u00bfLa digitalizaci\u00f3n crea, destruye o transforma el empleo? [V\u00eddeo]. Congreso Internacional UJA. Panel de Ponencias I &#8211; \u00bfLa digitalizaci\u00f3n crea, destruye o transforma el empleo? &#8211; YouTube) \u201c<em>Casi el 50 por ciento de las empresas esperan que la automatizaci\u00f3n lleve a una reducci\u00f3n de su fuerza de trabajo a tiempo completo en 2022<\/em>\u201d (n\u00f3tese que la fecha es anterior a la irrupci\u00f3n de la pandemia, por lo que, no es descabellado pensar que el porcentaje pueda ser mayor).<\/p>\n<p><sup>64<\/sup> M\u00e1s que de profesiones concretas, reflejamos habilidades requeridas. De esta manera, hoy por hoy al menos, existe un consenso sobre lo que se requerir\u00e1 en el futuro laboral. Habilidades como \u201c<em>creatividad o el razonamiento deductivo\u201d \u201ccomunicaci\u00f3n, el trabajo en equipo, el liderazgo o la negociaci\u00f3n<\/em>)\u201d son las aptitudes destacadas por \u201cFundamentos y propuestas para una Estrategia Nacional de Largo Plazo. Espa\u00f1a 2050\u201d. https:\/\/<a href=\"http:\/\/www.lamoncloa.gob.es\/presidente\/actividades\/Documents\/\">www.lamoncloa.gob.es\/presidente\/actividades\/Documents\/<\/a> 2021\/200521-Estrategia_Espana_2050.pdf.<\/p>\n<p><sup>65<\/sup> BOE de 31 de diciembre de 2003.<\/p>\n<p><sup>66<\/sup> BOE de 23 de marzo de 2007. En el art.5 se establecen las excepciones, esto es, situaciones que no constituyen discriminaci\u00f3n en el acceso de empleo. La interpretaci\u00f3n del precepto -como ya han tenido la oportunidad de se\u00f1alar nuestros tribunales, v.gr. acceso al trabajo en minas reservado a hombres: STC 22\/92 de 14 de diciembre &#8211; ha de ser restrictiva.<\/p>\n<p><sup>67<\/sup> por el que se aprueba la Estrategia Espa\u00f1ola de Apoyo Activo al Empleo 2021-2024. Combina la<\/p>\n<p>necesidad de acompa\u00f1ar a cada individuo (y empresa) \u201c<em>a lo largo de todo el proceso laboral\u201d \u201c\u2026que<\/em><\/p>\n<p><em>debe complementarse con el proceso de digitalizaci\u00f3n de los servicios p\u00fablicos de empleo, con la incorporaci\u00f3n del Big Data y la Inteligencia Artificial, garantizando enfoques espec\u00edficos basados en el principio de igualdad de oportunidades y no discriminaci\u00f3n\u2026<\/em>\u201d<\/p>\n<p><sup>68<\/sup> Real Decreto Legislativo 3\/2015, de 23 de octubre, por el que se aprueba el texto refundido de la Ley de Empleo.<\/p>\n<p><sup>69<\/sup> Real Decreto Legislativo 5\/2000, de 4 de agosto, por el que se aprueba el texto refundido de la Ley sobre Infracciones y Sanciones en el Orden Social.<\/p>\n<p><sup>70<\/sup> Directiva 2000\/43\/CE del Consejo, de 29 de junio de 2000, relativa a la aplicaci\u00f3n del principio de igualdad de trato de las personas independientemente de su origen racial o \u00e9tnico.<\/p>\n<p><sup>71<\/sup> La Recomendaci\u00f3n de la Comisi\u00f3n Europea sobre el refuerzo del principio de igualdad de retribuci\u00f3n entre hombres y mujeres a trav\u00e9s de la transparencia. All\u00ed se recoge -y de nuevo esta circunstancia se pone de relieve por OLARTE ENCABO, S.: Los criterios retributivos y su modelaci\u00f3n a trav\u00e9s de IA: propuestas de mejora. [Sesi\u00f3n de conferencia] <em>op.cit.<\/em>, la necesidad de que se creen nuevos mecanismos tendentes a esa igualdad real, toda vez que la Directiva mencionada agot\u00f3 su contenido. Otro instrumento que redunda en la igualdad salarial de g\u00e9nero -tambi\u00e9n puesto de manifiesto por id\u00e9ntica autora- la Resoluci\u00f3n del Parlamento europeo de 30 de enero de 2020 sobre la brecha salarial de g\u00e9nero. Alerta tambi\u00e9n de que la Directiva 1152\/2019 del Parlamento Europeo y del Consejo de 20 de junio de 2019, relativa a unas condiciones laborales transparentes y previsibles en la Uni\u00f3n Europea no establece previsi\u00f3n alguna sobre el salario en relaci\u00f3n con los mecanismos de determinaci\u00f3n propiciados por la inteligencia artificial.<\/p>\n<p><sup>72<\/sup> FERN\u00c1NDEZ GARC\u00cdA, A.: (2013, febrero, 13). \u201cLa discriminaci\u00f3n en el trabajo (II): discriminaciones indirectas\u201d. [Mensaje en Blog]. Recuperado de La discriminaci\u00f3n en el trabajo (II): discriminaciones indirectas | AFLabor (wordpress.com).<\/p>\n<p>Tras enunciar c\u00f3mo los arts.4.2.c) y 17 del ET \u201c<em>proh\u00edben las discriminaciones indirectas<\/em>\u201d destaca de su lectura que estos preceptos no se encargan de delimitar este concepto. El autor acude, ante ello, a \u201c<em>diferente normativa o jurisprudencia<\/em>\u2026\u201d Tras el examen exhaustivo, resalta la concurrencia de los siguientes elementos para que se aprecie la discriminaci\u00f3n indirecta: \u201c<em>1.-Una norma, pacto o decisi\u00f3n aparentemente neutra, es decir, que no tenga \u00e1nimo discriminatorio. 2.- Esta norma, pacto o decisi\u00f3n debe provocar una desventaja para una persona respecto de otras, en atenci\u00f3n a un motivo prohibido de discriminaci\u00f3n de los que aparecen enumerados en el art\u00edculo 14 CE y en los art\u00edculos 4.2.c) y 17.1 ET.3.- Esa norma, pacto o decisi\u00f3n no tiene una finalidad leg\u00edtima ni justificaci\u00f3n objetiva alguna. Si falla alguno de estos 3 requisitos NO estaremos ante una discriminaci\u00f3n indirecta<\/em>\u201d.<\/p>\n<p>Por supuesto, destacar en este apartado la labor que ha llevado a cabo el Tribunal Europeo de Derechos Humanos perfilando -a la luz de concretos supuestos de hechos- el concepto de discriminaci\u00f3n.<\/p>\n<p><sup>73<\/sup> El concepto de discriminaci\u00f3n indirecta es el mismo en todas las Directivas antes indicadas, variando tan solo raz\u00f3n por la que se discrimina.<\/p>\n<p><sup>74<\/sup> Las empresas, con base al art.38 de la Constituci\u00f3n, pueden hacer uso de estas tecnolog\u00edas en el \u00e1mbito de las relaciones laborales, tal y como destacara SERRANO FALC\u00d3N, C.: \u201cProceso de contrataci\u00f3n pol\u00edtica de empleo y uso de algoritmos\u201d. [V\u00eddeo], <em>op.cit.<\/em><\/p>\n<p>Esta invasi\u00f3n de la inteligencia artificial a cuantas facultades ostenta el empresario es puesta de manifiesto por MERCADER UGUINA, J. R.: \u201cAlgoritmos y derecho del trabajo\u201d, <em>op.cit.<\/em>, p. 64.<\/p>\n<p><sup>75<\/sup> MOLINA NAVARRETE, C.: \u201c<em>Big data <\/em>y relaciones laborales\u201d. [V\u00eddeo]. <em>op.cit. <\/em>En definitiva, siguiendo a este autor, lo que el empresario persigue -v\u00e9ase la similitud con respecto al modelo tradicional de relaciones laborales- es que \u201c<em>haya los m\u00ednimos tiempos muertos<\/em>\u201d.<\/p>\n<p><sup>76<\/sup> Numerosos autores destacan esta circunstancia. Como bot\u00f3n de muestra: MOLINA NAVARRETE, C.:<\/p>\n<p><em>Big data <\/em>y relaciones laborales. [V\u00eddeo]. <em>op.cit.<\/em><\/p>\n<p><sup>77<\/sup> V\u00e9ase, aun cuando negando la petici\u00f3n de que se trate de una modificaci\u00f3n sustancial de las condiciones de trabajo, la Sentencia de la Audiencia Nacional de 27 de julio de 2021 (AS 2021\/1434) en relaci\u00f3n a la implantaci\u00f3n de un sistema de asignaci\u00f3n de puestos de trabajo, conocido como <em>hot desk<\/em>, que implicaba que los trabajadores de la empresa no tuvieran un puesto de trabajo asignado, sino que este se adjudicaba en atenci\u00f3n a la petici\u00f3n previa del empleado a trav\u00e9s de una aplicaci\u00f3n inform\u00e1tica, esto es, de un algoritmo.<\/p>\n<p><sup>78<\/sup> MOLINA NAVARRETE, C.: \u201c\u00abDuelo al sol\u00bb (digital). \u00bfUn algoritmo controla mi trabajo? S\u00ed; a tu empresa tambi\u00e9n\u201d. <em>op.cit.<\/em>, p. 8. <em>\u201cLos sistemas de decisi\u00f3n algor\u00edtmica se venden como el m\u00e9todo m\u00e1s eficaz para valorar un inmenso conjunto de situaciones y personas sin introducir sesgos. Su -ilusoria- objetividad evitar\u00eda tanto la incertidumbre en la decisi\u00f3n (conocimiento intuitivo, corazonadas, impresiones, sesgos de la experiencia pasada), cuanto el efecto discriminatorio (estereotipos sociales, prejuicios, etc.). Por supuesto, todo a un m\u00f3dico precio<\/em>\u201d.<\/p>\n<p>Que los algoritmos incorporan sesgos discriminatorios es una realidad incontestable. As\u00ed, y a t\u00edtulo de ejemplo y por lo coet\u00e1neo con estas l\u00edneas, el Proyecto de Texto de la Recomendaci\u00f3n sobre la \u00c9tica de la Inteligencia Artificial (Par\u00eds. 9 a 24 de noviembre): \u201c<em>Considerando que las tecnolog\u00edas de la IA pueden ser de gran utilidad para la humanidad y que todos los pa\u00edses pueden beneficiarse de ellas, pero que tambi\u00e9n suscitan preocupaciones \u00e9ticas fundamentales, por ejemplo, en relaci\u00f3n con los sesgos que pueden incorporar y exacerbar, lo que puede llegar a provocar discriminaci\u00f3n, desigualdad, brechas digitales y exclusi\u00f3n y suponer una amenaza para la diversidad cultural, social y biol\u00f3gica, as\u00ed como generar divisiones sociales o econ\u00f3micas<\/em>.\u201d<\/p>\n<p><sup>79<\/sup> SORIANO ARNANZ, A.: \u201cDecisiones automatizadas y discriminaci\u00f3n: aproximaci\u00f3n y propuestas generales\u201d, <em>op.cit.<\/em>, \u201c<em>En el sector p\u00fablico, los algoritmos se emplean en la configuraci\u00f3n de los sistemas de ayudas p\u00fablicas, en la provisi\u00f3n de servicios p\u00fablicos y tambi\u00e9n en la actividad desarrollada por los cuerpos y fuerzas de seguridad, as\u00ed como en otras clases de actividades de limitaci\u00f3n, con una creciente incidencia en los procesos de an\u00e1lisis de datos y detecci\u00f3n de pautas que permitan identificar conductas, o incluso preverlas, dentro de las actividades de inspecci\u00f3n y control<\/em>.\u201d<\/p>\n<p><sup>80<\/sup> Es este un concepto que con naturalidad se ha deslizado en las p\u00e1ginas de nuestra doctrina. V\u00e9ase, MERCADER UGUINA, J. R. (15\/02\/2021). \u201cDiscriminaci\u00f3n algor\u00edtmica en el trabajo y derecho fundamental a la transparencia: \u00bfDebemos (podemos) regular los algoritmos?\u201d <em>El Foro de Labos<\/em>. https:\/\/<a href=\"http:\/\/www.elforodelabos.es\/discriminacion-algoritmica-en-el-trabajo-y-derecho-fundamental-a-\">www.elforodelabos.es\/discriminacion-algoritmica-en-el-trabajo-y-derecho-fundamental-a-<\/a> la-transparencia-debemos-podemos-regular-los-algoritmos\/<\/p>\n<p><sup>81<\/sup> MERCADER UGUINA, J. R. (2021). \u201cDiscriminaci\u00f3n algor\u00edtmica y derecho granular: nuevos retos para la igualdad en la era del <em>big data<\/em>\u201d, <em>op.cit.<\/em>, p. 6.<\/p>\n<p><sup>82<\/sup> MERCADER UGUINA, J.R (Febrero 2021) \u201cLa regulaci\u00f3n de los algoritmos\u201d. Debate online. <em>Conversaciones online desde la Fundaci\u00f3n Ram\u00f3n Areces<\/em>. Madrid. Disponible en https:\/\/<a href=\"http:\/\/www.youtube.com\/watch?v=ZFFQ9rk46lA\">www.youtube.com\/watch?v=ZFFQ9rk46lA.<\/a> Es esta una idea reiterada por el Profesor Mercader (minuto 15:39). \u201c<em>Los algoritmos no tienen imaginaci\u00f3n [\u2026] no incorporan emoci\u00f3n<\/em>\u201d. Del mismo autor, MERCADER UGUINA, J. R.: \u201cAlgoritmos y derecho del trabajo\u201d. <em>Actualidad Jur\u00eddica Ur\u00eda Men\u00e9ndez<\/em>, 52, 2019, p. 64. Siguiendo con este autor, MERCADER UGUINA, J. R (15\/02\/2021). \u201cDiscriminaci\u00f3n algor\u00edtmica en el trabajo y derecho fundamental a la transparencia: \u00bfDebemos (podemos) regular los algoritmos?\u201d <em>op.cit. <\/em>\u201c<em>Los algoritmos respiran el aire de los datos y si estos datos est\u00e1n contaminados tambi\u00e9n lo estar\u00e1n los resultados que obtengamos. De ello es consciente el \u2026actual, Comit\u00e9 Europeo de Protecci\u00f3n de Datos, en adelante, CEPD) que en sus Directrices sobre decisiones individuales automatizadas y elaboraci\u00f3n de perfiles a los efectos del Reglamento 2021\/679\u2026 ya subray\u00f3 los riesgos de estas f\u00f3rmulas\u2026 La elaboraci\u00f3n de perfiles puede perpetuar los estereotipos existentes y la segregaci\u00f3n social\u201d. <\/em>MERCADER UGUINA, J. R. (2021). \u201cDiscriminaci\u00f3n algor\u00edtmica y derecho granular: nuevos retos para la igualdad en la era del <em>big data<\/em>\u201d, <em>op.cit.<\/em><\/p>\n<p><sup>83<\/sup> V\u00e9ase, en este sentido, la Sentencia del Tribunal Distrito de La Haya de 5 de febrero de 2020 que aprecia la existencia de un sesgo discriminatorio en el sistema de algoritmos empleado por el gobierno de Pa\u00edses Bajos. El algoritmo ten\u00eda como objetivo la evaluaci\u00f3n de la posibilidad de fraude a instituciones como Seguridad Social y Hacienda. La sentencia enunciada estima vulneraci\u00f3n del art.8 del Convenio Europeo de Derechos Humanos y aunque el fin sea leg\u00edtimo, <em>\u201cel modelo de riesgo elaborado en estos momentos por SyRI (esto es el algoritmo) puede tener efectos no deseados, como estigmatizar y discriminar a la ciudadan\u00eda, por la ingente cantidad de informaci\u00f3n que recoge<\/em>\u201d. Uno de los colectivos afectados era el del grupo de personas con menor capacidad econ\u00f3mica.<\/p>\n<p>El objetivo era leg\u00edtimo (esta circunstancia fue puesta de manifiesto por MOLINA NAVARRETE, C.: \u201c<em>Big data <\/em>y relaciones laborales\u201d, [V\u00eddeo] <em>op.cit.<\/em>, \u201c<em>Reconoce tres cosas: el objetivo es leg\u00edtimo\u201d (la prevenci\u00f3n y control del fraude) \u201cgenera riesgos\u201d (discriminaci\u00f3n a trabajadores, pensionistas o empresas o aut\u00f3nomos) y \u201ccomo no es suficientemente transparente el sistema digital lo declara nulo\u201d.<\/em><\/p>\n<p><sup>84<\/sup> El acceso al empleo en condiciones de equidad est\u00e1 reconocido por el art. 35 CE. A mayor abundamiento, la Directiva 2000\/78, en su art. 3.1 que incluye dentro de su amparo \u201c<em>a) las condiciones de acceso al empleo, a la actividad por cuenta propia y al ejercicio profesional, incluidos los criterios de selecci\u00f3n y las condiciones de contrataci\u00f3n y promoci\u00f3n, independientemente de la rama de actividad y en todos los niveles de la clasificaci\u00f3n profesional, con inclusi\u00f3n de lo relativo a la promoci\u00f3n<\/em>\u201d. Aplicable tambi\u00e9n la Directiva 2000\/43 y Directiva 2000\/78. Aspectos estos resaltados por -a t\u00edtulo de ejemplo- STJUE de 28 de julio de 2016 (C-423\/15, TJCE 2016\/305).<\/p>\n<p><sup>85<\/sup> La Ley de Empleo, Real Decreto Legislativo 3\/2015, de 23 de octubre, que en su art.31 define a la intermediaci\u00f3n laboral como el \u201c<em>conjunto de acciones que tienen por objeto poner en contacto las ofertas de trabajo con los trabajadores que buscan un empleo, para su colocaci\u00f3n<\/em>.\u201d Un estudio sobre la evoluci\u00f3n y agentes en FERN\u00c1NDEZ GARC\u00cdA, A.: \u201cIntermediaci\u00f3n laboral y discriminaci\u00f3n\u201d. <em>Dona, treball i noves tecnologies<\/em>. Lleida, 4 de marzo de 2020. Disponible en Intermediaci\u00f3n laboral digital y discriminaci\u00f3n Jornada Lleida, 4 de marzo de 2020 (uoc.edu)<\/p>\n<p><sup>86<\/sup> As\u00ed, Facebook, en funci\u00f3n de la informaci\u00f3n suministrada por el usuario en relaci\u00f3n a la profesi\u00f3n ejercida, hace llegar ofertas de trabajo -a trav\u00e9s de los algoritmos- a la persona aun cuando no est\u00e9 en b\u00fasqueda activa de empleo. FERN\u00c1NDEZ GARC\u00cdA, A.: (15\/septiembre\/2020). <em>Intermediaci\u00f3n laboral <\/em><em>digital y discriminaci\u00f3n<\/em>. [Sesi\u00f3n de conferencia]. Centre Dolors Piera Universitat de Lleida. Taula rodona. Dona, Treball i Noves Tecnologies &#8211; YouTube. De igual modo, con la plataforma Linkedin y las sugerencias de empleo e incluso solicitud de preferencias.<\/p>\n<p><sup>87<\/sup> FERN\u00c1NDEZ GARC\u00cdA, A. (21-22 de junio de 2018). \u201cLos sistemas reputacionales de la econom\u00eda colaborativa \u00bfuna barrera en el derecho al trabajo? [Sesi\u00f3n de conferencia]. Collaborative Economy: Challenges and Opportunities. Actas del 14\u00aa Congreso Internacional Internet, Derecho y Pol\u00edtica. Universitat Oberta de Catalunya, Barcelona. 2018-idp_uoc.pdf (wordpress.com). \u201c<em>No cabe duda de que el estado de la tecnolog\u00eda de la que estamos hablando (algoritmos, macrodatos, etc) permite la elaboraci\u00f3n de perfiles y la evaluaci\u00f3n de datos diversos de un trabajador (valoraciones de terceros, datos profesionales, etc.) que al final se tienen en cuenta para que sea contratado o no<\/em>\u201d.<\/p>\n<p><sup>88<\/sup> MERCADER UGUINA, J. R.: \u201cAlgoritmos y derecho del trabajo\u201d. <em>op.cit.<\/em>, p. 64.<\/p>\n<p><sup>89<\/sup> OLARTE ENCABO, S.: \u201cLa aplicaci\u00f3n de la inteligencia artificial a los procesos de selecci\u00f3n de personal y ofertas de empleo: impacto sobre el derecho a la no discriminaci\u00f3n\u201d. Documentaci\u00f3n Laboral n\u00famero 119. 2020. P. 82. Esta autora nos hace ver c\u00f3mo \u201c\u2026<em>la aplicaci\u00f3n de esta tecnolog\u00eda que implica posesi\u00f3n y tratamiento de datos personales, constituye una realidad ambivalente, en la medida en que, a la vez que puede redundar en la mayor eficiencia en la intermediaci\u00f3n laboral y la gesti\u00f3n de personal para las empresas, ello genera una mayor vulnerabilidad de los derechos fundamentales de los trabajadores, no solo de la intimidad y la dignidad, sino del derecho a la no discriminaci\u00f3n en el acceso al empleo, que es un derecho consagrado en el art.35.1 CE cuyo contenido se concreta, seg\u00fan doctrina constitucional consolidada, en el derecho al acceso al empleo sin discriminaci\u00f3n, as\u00ed como en el derecho a no ser privado del trabajo sin una causa justa en derecho<\/em>\u201d.<\/p>\n<p><sup>90<\/sup> Seguimos con FERN\u00c1NDEZ GARC\u00cdA, A.: \u00abTrabajo, algoritmos y discriminaci\u00f3n\u00bb, en RODR\u00cdGUEZ- PI\u00d1ERO ROYO, M y TODOL\u00cd SIGNES, A. (Dtores.): <em>Vigilancia y control en el Derecho del Trabajo Digital<\/em>. Thomson-Reuters Aranzadi, 2020. La plataforma concreta es <em>Work-Today <\/em>y el mismo tratamiento de exclusi\u00f3n tiene el candidato que no se presenta a la entrevista de trabajo previamente concertada.<\/p>\n<p>El gigante Amazon emple\u00f3 -2014- un software para seleccionar el mejor candidato a una oferta de empleo. El resultado fue la exclusi\u00f3n de mujeres en el proceso; el sistema hab\u00eda sido entrenado para descartarlas con base a los datos previos que le mostraban que el perfil ideal era el de un hombre. El sistema era sutil: descartaba a las demandas de empleo de mujeres cuando detectaba en el curr\u00edculum de estas el empleo de un vocablo en femenino. Amazon scraps secret AI recruiting tool that showed bias against women | Reuters<\/p>\n<p><sup>91<\/sup> FERN\u00c1NDEZ GARC\u00cdA, A. (2020\/noviembre\/17). \u201cDiscriminaci\u00f3n por nacionalidad en la b\u00fasqueda digital de empleo en la Uni\u00f3n Europea\u201d. [Mensaje en Blog]. Recuperado de Discriminaci\u00f3n por nacionalidad en la b\u00fasqueda digital de empleo en la Uni\u00f3n Europea (uoc.edu).<\/p>\n<p><sup>92<\/sup> Analizada esta cuesti\u00f3n por nuestra doctrina laboral (as\u00ed, GIN\u00c8S I FABRELLES, A.: \u201cSesgos de g\u00e9nero en el uso de la IA en el \u00e1mbito del trabajo\u201d. [V\u00eddeo] <em>op.cit.<\/em>) se detecta que empresas como Amazon, IBM, Uber emplean sistemas de reconocimiento facial que dificultan el reconocimiento a determinadas personas. En concreto, IBM presentaba un porcentaje de error del 35% frente al 0,8% de hombres blancos. La raz\u00f3n es que el algoritmo est\u00e1 entrenado en funci\u00f3n de los datos suministrados y en estos apenas hay presencia de mujeres de color, de ah\u00ed el resultado. Este efecto discriminatorio fue corregido hasta llegar al 17% en el caso de IBM. En el caso de Uber se excluyeron a personas transg\u00e9nero porque el algoritmo no las reconoc\u00eda.<\/p>\n<p><sup>93<\/sup> En ocasiones, la discriminaci\u00f3n es incluso anterior a la apertura del proceso de cobertura de vacante. Recu\u00e9rdese, la STJCE de 10 de julio de 2008, C-54\/07 (TJCE 2008\/157) que resolvi\u00f3 la cuesti\u00f3n prejudicial suscitada por el \u00f3rgano judicial competente belga. Se declara contario al Derecho a la Uni\u00f3n (concretamente a los postulados contenidos en el art. 8.1 Directiva 2000\/43) \u201c<em>Las declaraciones p\u00fablicas mediante las que un empleador da a conocer que, en el marco de su pol\u00edtica de contrataci\u00f3n, no emplear\u00e1 a trabajadores de determinado origen \u00e9tnico o racial\u201d. Estas aseveraciones que realiz\u00f3 en su momento el empleador bastan para \u201cpresumir la existencia de una pol\u00edtica de contrataci\u00f3n directamente discriminatoria\u201d<\/em>.<\/p>\n<p>En la Sentencia antes indicada, se resuelve un supuesto en el que un empresario de nacionalidad y residencia belga manifiesta p\u00fablicamente su intenci\u00f3n de no contratar a personal extranjero, ampar\u00e1ndose en su libertad empresarial y la convicci\u00f3n de que sus potenciales clientes no querr\u00edan relacionarse con su empresa si la imagen de esta ven\u00eda representada por una persona extranjera. De esta forma, una de las conclusiones alcanzadas por el TJUE es que \u201c<em>El hecho de que un empleador declare p\u00fablicamente que no contratar\u00e1 a trabajadores de determinado origen \u00e9tnico o racial constituye una discriminaci\u00f3n directa en la contrataci\u00f3n, en el sentido del art\u00edculo 2, apartado 2, letra a) de la Directiva 2000\/43\/CE del Consejo, de 29 de junio de 2000\u201d.<\/em><\/p>\n<p><sup>94<\/sup> SERRANO FALC\u00d3N, C.: \u201cLa selecci\u00f3n a trav\u00e9s de modelos de IA\u201d. [V\u00eddeo] en Jornada Discriminaci\u00f3n Algor\u00edtmica laboral (1\/diciembre\/2021). UAB. Discriminaci\u00f3n algor\u00edtmica laboral, jornada 1 dic 2021, UB &#8211; YouTube. La ponente puso de manifiesto estas tres circunstancias relativas a la ausencia de pronunciamientos judiciales, silencio de la norma estatal y de los convenios colectivos y escasas actuaciones inspectoras (doscientos sesenta actuaciones de enero a diciembre de 2019). En concreto, en relaci\u00f3n a la Ley de Empleo se observa su tendencia -no solo en este particular aspecto- de no ofrecer respuesta a determinados interrogantes que surgen en torno a esta fase pre-inicial. Destacar -como lo hace la autora- la gu\u00eda de la AEPD que versa sobre selecci\u00f3n.<\/p>\n<p><sup>95<\/sup> Es m\u00e1s ostensible cuando la convocatoria es p\u00fablica el apreciar -a nuestro juicio- la lesi\u00f3n al derecho a la no discriminaci\u00f3n; de un lado, porque la oferta es visible de forma general para todo el p\u00fablico (o al menos, el interesado), existen m\u00e1s medios para combatir esos abusos por cuanto la presencia sindical es m\u00e1s fuerte (por nacional) que en la empresa privada (sobre todo, si lo comparamos con sociedades unipersonales o de peque\u00f1a dimensi\u00f3n).<\/p>\n<p><sup>96<\/sup> Esta decisi\u00f3n de acudir al algoritmo para seleccionar al trabajador futuro no es alcanzada exclusivamente por las empresas de grandes dimensiones. Este aspecto no es balad\u00ed porque da cuenta de las posibilidades potencialmente universales de discriminaci\u00f3n. Si los algoritmos son empleados por todas las empresas, con independencia de cu\u00e1l sea su dimensi\u00f3n, se universaliza el destinatario de la eventual discriminaci\u00f3n.<\/p>\n<p>La extensi\u00f3n del algoritmo por cuanto la empresa puede acudir a un servicio externo que se encargue de la contrataci\u00f3n de la fuerza laboral (consultora, ETT, adquisici\u00f3n -incluido el alquiler- del sistema algor\u00edtmico) es una idea puesta de manifiesto por TODOL\u00cd SIGNES, A.: \u201cSesgos de g\u00e9nero en el uso de la IA en el \u00e1mbito del trabajo\u201d. [V\u00eddeo] en Jornada Discriminaci\u00f3n Algor\u00edtmica laboral (1\/diciembre\/2021). UAB. Discriminaci\u00f3n algor\u00edtmica laboral, jornada 1 dic 2021, UB &#8211; YouTube).<\/p>\n<p><sup>97<\/sup> SERRANO FALC\u00d3N, C.: \u201cLa selecci\u00f3n a trav\u00e9s de modelos de IA\u201d. [V\u00eddeo], <em>op.cit.<\/em><\/p>\n<p><sup>98<\/sup> En ocasiones, la empresa solicitante es la que se dirige a los posibles candidatos. El inconveniente es que solo se dirig\u00eda a un grupo, lo que supon\u00eda una preselecci\u00f3n de los potenciales candidatos \u201c<em>quir\u00fargica y as\u00e9ptica<\/em>\u201d (siguiendo a RIVAS VALLEJO, P.).<\/p>\n<p><sup>99<\/sup> OLARTE ENCABO, S.: \u201cLa aplicaci\u00f3n de inteligencia artificial a los procesos de selecci\u00f3n de personal y ofertas de empleo, impacto sobre el derecho a la no discriminaci\u00f3n\u201d, <em>op.cit.<\/em>, pp. 92 y 93 en las cuales nos relata la pr\u00e1ctica discriminatoria (ya corregida) llevada a cabo por Facebook por medio de la cual solo a determinadas personas que presentaban un perfil espec\u00edfico les era mostrada una oferta de empleo.<\/p>\n<p><sup>100<\/sup> TODOL\u00cd SIGNES, A.: \u201cSesgos de g\u00e9nero en el uso de la IA en el \u00e1mbito del trabajo\u201d. [V\u00eddeo] <em>op.cit. <\/em>De esta forma, el algoritmo llega a una serie de conclusiones en funci\u00f3n de los datos suministrados que, en principio, no parecen tener una conexi\u00f3n directa con la informaci\u00f3n que tiene en consideraci\u00f3n.<\/p>\n<p>A la mente acude la muestra ofrecida por la profesora GIN\u00c8S I FABRELLES, A.: \u201cSesgos de g\u00e9nero en el uso de la IA en el \u00e1mbito del trabajo\u201d. [V\u00eddeo] en Jornada Discriminaci\u00f3n Algor\u00edtmica laboral (1\/diciembre\/2021). UAB. Discriminaci\u00f3n algor\u00edtmica laboral, jornada 1 dic 2021, UB &#8211; YouTube). <em>Gild <\/em>es una empresa que b\u00e1sicamente elabora perfiles para empresas tecnol\u00f3gicas; ello le lleva a estar interesada no solo en la valoraci\u00f3n curricular del candidato, sino tambi\u00e9n si existen posibilidades de que este se integre en la comunidad digital y la valoraci\u00f3n del capital social e integraci\u00f3n en la comunidad digital de las personas candidatas. Esta \u00faltima informaci\u00f3n la extrae<\/p>\n<p>conociendo si la persona en cuesti\u00f3n visita determinadas p\u00e1ginas webs. El algoritmo usado -que fue entrenado sobre una base de datos de m\u00e1s de 6 millones de personas- realizaba la siguiente inferencia: la persona con fuertes habilidades de programaci\u00f3n realiza visitas a una p\u00e1gina web concreta de c\u00f3mic de manga japon\u00e9s. Esta inferencia resulta discriminatoria, por cuanto las personas de sexo femenino no suelen visitar este tipo de p\u00e1ginas.<\/p>\n<p><sup>101<\/sup> Tres son los tipos de sesgos que expone el profesor TODOL\u00cd SIGNES, A.: \u201cSesgos de g\u00e9nero en el uso de la IA en el \u00e1mbito del trabajo\u201d. [V\u00eddeo]. <em>op.cit. <\/em>Los que infieren \u201c<em>ciertas caracter\u00edsticas personales basadas en otros datos<\/em>\u201d, los que se refieren a \u201c<em>la propia construcci\u00f3n del algoritmo<\/em>\u201d y, por \u00faltimo, se\u00f1ala \u201c<em>Cuando un algoritmo est\u00e1 al mando, en general, las minor\u00edas estar\u00e1n en desventaja<\/em>\u201d, aunque desde nuestro punto de vista estos \u00faltimos no son m\u00e1s que los efectos de los dos anteriores.<\/p>\n<p><sup>102<\/sup> Vid. RIVAS VALLEJO, P.: <em>La aplicaci\u00f3n de la Inteligencia Artificial al trabajo y su impacto discriminatorio op.cit.<\/em>, pp. 241-246 bajo el ep\u00edgrafe: \u201c<em>Selecci\u00f3n algor\u00edtmica de candidaturas: m\u00e9todos<\/em>\u201d.<\/p>\n<p><sup>103<\/sup> MORENO C\u00c1DIZ, S.: \u201cInteligencia Artificial en la selecci\u00f3n de trabajadores. T\u00e9cnicas utilizadas y evidencias emp\u00edricas\u201d [V\u00eddeo] en Jornada Discriminaci\u00f3n Algor\u00edtmica laboral (1\/diciembre\/2021). UAB. Discriminaci\u00f3n algor\u00edtmica laboral, jornada 1 dic 2021, UB &#8211; YouTube). A\u00f1ade ejemplos concretos en su presentaci\u00f3n en atenci\u00f3n a las \u201c<em>t\u00e9cnicas de an\u00e1lisis de emociones\u201d, \u201centrevistas digitales\u201d y \u201cgamificaci\u00f3n o juegos profesionales<\/em>\u201d. Plataformas estudiadas: \u201cWORCKET; ELENIUS, THE RECRUITER; SEEDUNK; HIRE VUE BUILDER; FACEBOOK\u201d. Por su parte, RIVAS VALLEJO, P. (22 de junio de 2021). Discriminaci\u00f3n algor\u00edtmica en el trabajo [V\u00eddeo], <em>op.cit. <\/em>Analiza la t\u00e9cnica \u201c<em>para la selecci\u00f3n de talento<\/em>\u201d empleada a trav\u00e9s de WORCKET- que es capaz de trazar un retrato robot de las cualidades y aptitudes que definen al candidato id\u00f3neo en relaci\u00f3n a cada empresa individualmente considerada. Ese an\u00e1lisis se efect\u00faa con base a las decisiones que sobre contrataci\u00f3n de personal ha tomado previamente la empresa.<\/p>\n<p><sup>104<\/sup> Estas circunstancias, de las que querr\u00edamos incidir en el dato de \u201ccaracter\u00edsticas psicol\u00f3gicas\u201d son puestas de manifiesto por MERCADER UGUINA, J.R.: \u201cAlgoritmos: personas y n\u00fameros en el Derecho Digital del trabajo\u201d que trae a colaci\u00f3n lo que el actual Comit\u00e9 Europeo de Protecci\u00f3n de Datos &#8211; anta\u00f1o GT 29- a trav\u00e9s de las ya citadas \u201cDirectrices sobre decisiones individuales automatizadas y elaboraci\u00f3n de perfiles a los efectos del Reglamento 2016\/679\u201d expone. El Comit\u00e9 Europeo de Protecci\u00f3n de Datos es un organismo independiente que tiene atribuida la misi\u00f3n de aplicaci\u00f3n congruente de la normativa de protecci\u00f3n de datos en los Estados miembros.<\/p>\n<p><sup>105<\/sup> EUBANKS, V.: <em>La automatizaci\u00f3n de la desigualdad. Herramientas de tecnolog\u00eda avanzada para supervisar y castigar a los pobres. <\/em>2\u00aa Ed. Capit\u00e1n Swing.2021. En la p. 89 ya apunta la discriminaci\u00f3n que, con ocasi\u00f3n de las entrevistas digitales, pueden sufrir las personas sordas.<\/p>\n<p><sup>106<\/sup> En 2014, Amazon, Inc. fue consciente de que para la captaci\u00f3n de puestos t\u00e9cnicos se contrataban a candidatos-hombre, pues el algoritmo hab\u00eda sido entrenado con datos de los diez a\u00f1os anteriores en los que las contrataciones que finalmente se realizaron eran de varones. Entrenado, por tanto, con esta informaci\u00f3n, aprendi\u00f3 a interpretar que el trabajador ideal lo era de este sexo. Lo m\u00e1s llamativo es que cuando se detect\u00f3 esta situaci\u00f3n de discriminaci\u00f3n (en 2015) no se pudo, a pesar de que se intent\u00f3, corregir al algoritmo, lo que le lleva a eliminarlo en 2017. Es sabido que, en la actualidad, sigue contando con un sistema a base de algoritmos para realizar sus procesos selectivos, aun cuando se desconoce cu\u00e1l es el que concretamente se emplea. https:\/\/elpais.com\/tecnologia\/2018\/10\/11\/actualidad\/1539278884_487716.html [Fecha de consulta: 23\/11\/2021].<\/p>\n<p><sup>107<\/sup> EGUILUZ CASTA\u00d1EIRA, J.A.: \u201cDesaf\u00edos\u00a0 y retos que plantean las decisiones automatizadas\u00a0 y los<\/p>\n<p>perfilados para los derechos fundamentales\u201d. <em>Estudios de Deusto. Revista de Derecho P\u00fablico <\/em>68 (2), p.<\/p>\n<ol start=\"345\">\n<li>Disponible en https:\/\/revista-estudios.revistas.deusto.es\/article\/view\/1954\/2418.<\/li>\n<\/ol>\n<p><sup>108<\/sup> El ejemplo que emplea el autor, no obstante, adolece (a nuestro juicio) de subjetividad al presuponer que en todo caso la empresa se encuentra ubicada en el centro de la ciudad, en cuyo caso efectivamente es cierto que si lo que se valora es la puntualidad, el sector m\u00e1s castigado econ\u00f3micamente es el m\u00e1s susceptible de sufrir incumplimientos, pues no es aventurado pensar que la residencia -por cuestiones meramente econ\u00f3micas- no se situar\u00e1 en el centro de la ciudad.<\/p>\n<p><sup>109<\/sup> V\u00e9ase, SORIANO\u00a0 \u00a0ARNANZ, A.: \u201cDecisiones automatizadas y discriminaci\u00f3n: aproximaci\u00f3n y<\/p>\n<p>propuestas generales\u201d, <em>op.cit.<\/em><\/p>\n<p><sup>110<\/sup> https:\/\/<a href=\"http:\/\/www.lamoncloa.gob.es\/presidente\/actividades\/Documents\/2021\/200521-Estrategia_Espana_\">www.lamoncloa.gob.es\/presidente\/actividades\/Documents\/2021\/200521-Estrategia_Espana_<\/a> 2050.pdf. Vid. P. 308: \u201c<em>2\u00ba frente: Actualizar y reforzar las pol\u00edticas activas de empleo\u2026 Crear una plataforma digital estatal que funcione como un job marketplace que conecte a todos los demandantes de empleo con todas las ofertas a nivel nacional, tanto p\u00fablicas como privadas. Esta plataforma se apoyar\u00e1 en el <\/em><em>uso de Inteligencia Artificial, algoritmos de perfilado y datos masivos para mejorar la eficiencia de los emparejamientos laborales y aumentar la competencia y la productividad de la econom\u00eda<\/em>\u201d.<\/p>\n<p><sup>111<\/sup> As\u00ed, OLARTE ENCABO, S.: \u201cLa aplicaci\u00f3n de la inteligencia artificial a los procesos de selecci\u00f3n de personal y ofertas de empleo: impacto sobre el derecho a la no discriminaci\u00f3n\u201d. Documentaci\u00f3n Laboral n\u00famero 119. 2020. p. 85: \u201c\u2026<em>s\u00ed es urgente establecer l\u00edmites espec\u00edficos a dicha libertad [se refiere a la libertad de empresa] cuando este derecho empresarial se ejercita con un soporte tecnol\u00f3gico que en la pr\u00e1ctica permite al empresario conocer historiales m\u00e9dicos, situaci\u00f3n familiar (pareja, hijos, separaci\u00f3n, divorcio, custodia de menores), aficiones personales, h\u00e1bitos t\u00f3xicos o saludables, tendencias sexuales\u2026\u201d<\/em><\/p>\n<p><sup>112<\/sup> No es una idea nuestra que la opacidad es la responsable de que no se descubran f\u00e1cilmente los comportamientos discriminatorios. Antes bien, esta circunstancia es la que ha sido puesta de manifiesto por nuestra doctrina cient\u00edfica y a la que acaso se ha intentado dar respuesta (aun cuando sea parcialmente) a trav\u00e9s de la reforma e inclusi\u00f3n del nuevo apartado al art. 64 ET.<\/p>\n<p><sup>113<\/sup> As\u00ed, el Anexo III recoge en el primer p\u00e1rrafo la \u201c<em>Identificaci\u00f3n biom\u00e9trica y categorizaci\u00f3n de personas f\u00edsicas: a) sistemas de IA destinados a utilizarse en la identificaci\u00f3n biom\u00e9trica remota \u201cen tiempo real\u201d o \u201cen diferido\u201d de las personas f\u00edsicas<\/em>\u201d. De igual modo, con traslaci\u00f3n directa al \u00e1mbito de las relaciones laborales, tambi\u00e9n se tratar\u00eda de sistema de IA de alto riesgo los que est\u00e1n dirigidos a \u201c<em>detectar el estado emocional de una persona f\u00edsica<\/em>\u201d (encuadrado este en los denominados \u201c<em>Asuntos relacionados con la aplicaci\u00f3n de la ley<\/em>\u201d).<\/p>\n<p><sup>114<\/sup> Por descender a un terreno concreto Google Espa\u00f1a ya emplea algoritmos retributivos, pero aun as\u00ed, aunque sean una realidad innegable implantada, lo cierto es que <em>\u201clos instrumentos reguladores aprobados o en curso sobre la inteligencia artificial no prestan especial atenci\u00f3n a los algoritmos de recursos humanos y espec\u00edficamente al salario<\/em>\u201d. [Sesi\u00f3n de conferencia]. A trav\u00e9s de su ponencia se nos ilustra sobre el panorama normativo interno y europeo (incluyendo, a las Directivas y normas citadas en el cuerpo del presente, al Programa de Europa Digital 2021-2027 y, espec\u00edficamente el principio de transparencia que es el que ser\u00eda aplicable a cualquier \u00e1mbito, m\u00e1xima esta que tambi\u00e9n aparece en la Estrategia de la Uni\u00f3n Europea 2020-2025) que, aun cuando no contemple expresamente a los algoritmos retributivos, s\u00ed puede entenderse directamente aplicable a estos supuestos. La autora resalta la circunstancia -de la que tampoco fue ajena la Cumbre de Oporto de mayo de 2021- que no se aluda expl\u00edcitamente a la inteligencia artificial.<\/p>\n<p><sup>115<\/sup> A mero t\u00edtulo de ejemplo, y recopilando tambi\u00e9n las aseveraciones de MOLINA NAVARRETE, C.: \u201cEconom\u00eda de datos, mercados digitales de empleo y gesti\u00f3n anal\u00edtica de personas: retos para la transici\u00f3n a una \u00absociedad del e-trabajo decente\u00bb\u201d, <em>op.cit.<\/em>, p. 10. \u201c<em>La Sentencia del Tribunal Constitucional (STC) 61\/2021, de 15 de marzo, que concede amparo a una trabajadora que no recibi\u00f3 la debida tutela judicial efectiva frente a su despido basado en una prueba tecnol\u00f3gica inconstitucional\u2026O la Sentencia del Tribunal Supremo (STS), Sala de lo Contencioso- Administrativo, 557\/2021, de 26 de abril, que precisa los l\u00edmites de la potestad de la Administraci\u00f3n empleadora en el ejercicio del control videogr\u00e1fico, exhibiendo una laxitud (no exige ni consentimiento ni informaci\u00f3n previa sobre el fin de control laboral, bastando con el conocimiento gen\u00e9rico de las c\u00e1maras). M\u00e1s garantista se muestra la Sala de lo Penal (por ejemplo, STS, Sala de lo Penal, 328\/2021, de 22 de abril confirma la condena a la pena de 1 a\u00f1o de prisi\u00f3n por un delito de revelaci\u00f3n de secretos a un empresario que, en su af\u00e1n [de] buscar una prueba eficaz de la deslealtad laboral, accedi\u00f3 al correo particular<\/em>)\u201d. Vid. FERN\u00c1NDEZ GARC\u00cdA, A.: \u201cTrabajo, algoritmos y discriminaci\u00f3n\u201d, <em>op.cit.<\/em><\/p>\n<p><sup>116<\/sup> RIVAS VALLEJO, P.: <em>La aplicaci\u00f3n de la Inteligencia Artificial al trabajo y su impacto discriminatorio<\/em>, <em>op.cit.<\/em>,<\/p>\n<ol start=\"194\">\n<li>194. Se\u00f1ala que \u201c<em>Seg\u00fan los especialistas, existen en la actualidad cuatro tendencias en el monitoreo y vigilancia de los trabajadores: herramientas de predicci\u00f3n y se\u00f1alizaci\u00f3n, datos biom\u00e9tricos y de salud, monitoreo remoto y seguimiento del tiempo, y gamificaci\u00f3n y gesti\u00f3n algor\u00edtmica<\/em>\u201d.<\/li>\n<\/ol>\n<p><sup>117<\/sup> MOLINA NAVARRETE, C.: <em>Big data y relaciones laborales <\/em>[V\u00eddeo]. <em>op.cit.<\/em>, Nos recuerda la necesidad de que los teletrabajadores tengan su propio sistema de evaluaci\u00f3n.<\/p>\n<p><sup>118<\/sup> Aun cuando nos centramos en la lesi\u00f3n al derecho a la no discriminaci\u00f3n, no se puede descartar que se pueden a trav\u00e9s de los algoritmos afectar a otros derechos. De hecho, el primero en resultar afectado es el relativo a la protecci\u00f3n de datos (MU\u00d1OZ RUIZ, A.B. (15\/05\/2019). \u201cRegistro de jornada y modernidad tecnol\u00f3gica: \u00bfc\u00f3mo afecta al derecho fundamental de protecci\u00f3n de datos de car\u00e1cter personal de los empleados?\u201d <em>El Foro de Labos<\/em>. https:\/\/<a href=\"http:\/\/www.elforodelabos.es\/registro-de-\">www.elforodelabos.es\/registro-de-<\/a> jornada-y-modernidad-tecnologica-como-afecta-al-derecho-fundamental-de-proteccion-de-datos- de-caracter-personal-de-los-empleados\/). El segundo derecho que puede quedar comprometido es el relativo a la intimidad. De hecho, siguiendo con el anterior autor podemos apreciar c\u00f3mo el control al trabajador a trav\u00e9s de sus huellas, podr\u00eda desencadenar la invasi\u00f3n de los dos derechos anteriores. Destaca que en este caso concreto no ser\u00eda necesario requerir previamente el consentimiento del trabajador, pese a que ser\u00eda oportuno -recogiendo a este efecto la informaci\u00f3n de la AEPD- que el sistema de control no almacenase el dato.<\/p>\n<p><sup>119<\/sup> Se trataba de un sistema de registro o control de la jornada previsto para los teletrabajadores que est\u00e1n \u201c<em>en todo momento conectado telef\u00f3nica y digitalmente<\/em>\u201d. La Audiencia entiende que \u201c<em>el no permitir registrar pausas vulnera la dignidad del trabajador, que no es otra cosa que el derecho que tiene a ser tratado como una persona en todo momento, resulta contrario a la protecci\u00f3n de [la] salud, y, aun cuando no se haya alegado, esta Sala a mayor abundamiento y \u201cobiter dictae\u201d considera que puede constituir una discriminaci\u00f3n indirecta por raz\u00f3n de edad proscrita por el art. 17.1 del ET pues resulta indiscutible que esta pr\u00e1ctica, aparentemente neutra, implica en la pr\u00e1ctica un trato peyorativo a los trabajadores de m\u00e1s edad con respecto de los m\u00e1s j\u00f3venes<\/em>\u201d.<\/p>\n<p><sup>120<\/sup> MERCADER UGUINA, J. R. (2021). \u201cDiscriminaci\u00f3n algor\u00edtmica y derecho granular: nuevos retos para la igualdad en la era del <em>big data<\/em>\u201d, <em>op.cit.<\/em>, p. 7. Este autor destaca que uno de los efectos positivos del fallo judicial estriba en que la discriminaci\u00f3n en el acceso al trabajo no se hace depender de la calificaci\u00f3n jur\u00eddica del v\u00ednculo de los prestadores de servicio, lo que a la postre supone la extensi\u00f3n en la comprensi\u00f3n del derecho a no ser discriminado con independencia del tipo de actividad prestacional que se lleve a cabo.<\/p>\n<p>FERN\u00c1NDEZ S\u00c1NCHEZ, S.: \u201cFrank, el algoritmo consciente de Deliveroo. Comentario a la Sentencia del Tribunal de Bolonia 2949\/2020, de 31 de diciembre\u201d. <em>Revista de Trabajo y Seguridad Social<\/em>. CEF n\u00fam. 457, pp. 179-193. \u201c<em>Cada domingo, los\/las riders de Deliveroo recib\u00edan un mensaje donde se les informaba, en funci\u00f3n del ranking, sobre la franja horaria en la que pod\u00edan acceder a realizar las reservas de las sesiones de trabajo para la semana sucesiva. As\u00ed, cada lunes, los\/las riders con mejor ranking reputacional acced\u00edan a la plataforma para realizar las reservas a las 11:00 de la ma\u00f1ana, los siguientes en el ranking acced\u00edan a las 15:00, mientras los que pose\u00edan una puntuaci\u00f3n peor ten\u00edan que esperar hasta las 17:00 horas. Esto comportaba que las ocasiones de trabajo de los\/las riders con una puntuaci\u00f3n inferior se redujesen seg\u00fan avanzaban las franjas. De tal forma, Frank iba lentamente excluyendo del ciclo productivo a la persona repartidora que no aseguraba la disponibilidad<\/em>\u201d.<\/p>\n<p>El <em>rider <\/em>se situaba en una posici\u00f3n fruto de la combinaci\u00f3n de dos criterios: el primero relativo al n\u00famero de ocasiones en las que el repartidor habiendo reservado una \u201csesi\u00f3n\u201d finalmente no hace esta y el segundo cu\u00e1ntas veces el repartidor estaba disponible para llevar a cabo los pedidos durante el fin de semana (concretamente, desde las 20.00 horas del viernes a las 22.00 horas del domingo). El resultado serv\u00eda para que el repartidor pudiera -o no- acceder a repartos.<\/p>\n<p>Para determinar si la conducta empresarial era o no discriminatoria fue necesario conocer c\u00f3mo se comportaba la plataforma y concretamente, c\u00f3mo lo hac\u00eda el algoritmo. Pero dada la oscuridad de su funcionamiento, el acceso a esta informaci\u00f3n era pr\u00e1cticamente imposible, lo que redundaba a favor de los reclamantes, surgiendo de esta manera la sospecha (presunci\u00f3n) de discriminaci\u00f3n.<\/p>\n<p>La sentencia indica que \u201c<em>no se discute sobre la legitimidad del sistema en s\u00ed, ni del hecho de que se incentive la cancelaci\u00f3n preventiva de las sesiones reservadas que no se pretenden realizar, sino solo el hecho de que la<\/em><\/p>\n<p><em>eventual cancelaci\u00f3n tard\u00eda o la falta de participaci\u00f3n en la sesi\u00f3n de trabajo no cancelada no pueda justificarse por el rider sobre la base de comprobadas razones dotadas de relieve jur\u00eddico (la primera entre todas, pero no la \u00fanica, el ejercicio del derecho de huelga constitucionalmente garantizado<\/em>).\u201d Con base en ello, FERN\u00c1NDEZ S\u00c1NCHEZ, S., expresa que la discriminaci\u00f3n indirecta le otorga la posibilidad a la parte contraria (a la que se le imputa la discriminaci\u00f3n) de que pueda justificar la medida o acci\u00f3n controvertida, exponiendo cu\u00e1l es la finalidad leg\u00edtima que se pretende. A diferencia de este tipo de discriminaci\u00f3n, en la directa son contadas las razones que pueden emplearse para la justificaci\u00f3n de la discriminaci\u00f3n, concretamente, bajo \u201c<em>requisitos profesionales esenciales y determinantes<\/em>\u201d (art. 4 Directiva 2000\/78 CE).<\/p>\n<p><sup>121<\/sup> MERCADER UGUINA, J.R.: \u201cAlgoritmos: personas y n\u00fameros en el Derecho Digital del trabajo\u201d, <em>op.cit.<\/em>, nos ofrece ejemplos concretos: \u201c<em>chaqueta inteligente, reloj inteligente, etc<\/em>.\u201d y, a continuaci\u00f3n, destaca el Dictamen 2\/2017 del actual Comit\u00e9 Europeo de Protecci\u00f3n de Datos para recordarnos a continuaci\u00f3n c\u00f3mo \u201c<em>los empresarios podr\u00edan adem\u00e1s fomentar el uso de estos dispositivos durante el tiempo de ocio, para medir los patrones de sue\u00f1o y los niveles de ejercicio, bas\u00e1ndose en su posible vinculaci\u00f3n con la productividad y con comportamientos ligados a la idea de empresa saludable [\u2026] Datos en relaci\u00f3n con los cuales el RGPD establece como principio general la prohibici\u00f3n de tratamiento<\/em>\u201d.<\/p>\n<p><sup>122<\/sup> MOLINA NAVARRETE, C.: \u201cEconom\u00eda de datos, mercados digitales de empleo y gesti\u00f3n anal\u00edtica de personas: retos para la transici\u00f3n a una \u00absociedad del e-trabajo decente\u00bb\u201d, <em>op.cit.<\/em>, p. 7: <em>\u201cSe suele afirmar que, a diferencia de lo que suced\u00eda en el siglo XX, la vigilancia y el control de las personas en general, y de las trabajadoras en particular, tiende a realizarse a trav\u00e9s de formas en las que se las ve completamente, hasta incluso predecir conductas futuras, e incluso deseos, pero quienes son as\u00ed controlados\/as no tienen percepci\u00f3n de vigilancia, sino al contrario, de libertad (Byung-Chul, 2017)<\/em>\u201d.<\/p>\n<p><sup>123<\/sup> Ejemplos a lo largo del globo tenemos. As\u00ed, por acudir a una noticia relativamente cercana al momento en que se redacta el presente, la protagoniz\u00f3 una empresa rusa de software (Xsolla) que en agosto de 2021 despidi\u00f3 a ciento cincuenta empleados (la plantilla estaba compuesta por cuatrocientos\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 cincuenta).\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 https:\/\/<a href=\"http:\/\/www.eleconomista.es\/economia\/noticias\/11354137\/08\/21\/Me-\">www.eleconomista.es\/economia\/noticias\/11354137\/08\/21\/Me-<\/a> puede-despedir-un-algoritmo-por-ser-improductivo-teletrabajando-En-Rusia-ya-esta- pasando.html. [Fecha de consulta: 21 de diciembre de 2021]<\/p>\n<p><sup>124<\/sup> OLARTE ENCABO, S.: \u201cLos criterios retributivos y su modelaci\u00f3n a trav\u00e9s de la: propuestas de mejora\u201d. [V\u00eddeo]. <em>op.cit. <\/em>Destaca los datos que representa la brecha salarial, a saber: 2020: 22%, 2019: 19,5% y 2018: 21%. Si se observa, se comprueba c\u00f3mo e 2019 disminuye el porcentaje en atenci\u00f3n a la subida que experiment\u00f3 el SMI de ese a\u00f1o (la mayor subida, al haberse incrementado en un 22%) que redund\u00f3 especialmente en el colectivo femenino. Resalta, igualmente, que en 2021 volvemos a la situaci\u00f3n previa, siendo probable que se supere el 22% en este a\u00f1o (en la UE el porcentaje medio es del 15%).<\/p>\n<p><sup>125<\/sup> Ib\u00eddem. T\u00e9ngase en cuenta que cuando el salario (o determinadas partidas salariales) se cuantifica valorando el desempe\u00f1o del trabajador, los resultados obtenidos o cualquier otro tipo de par\u00e1metro, el algoritmo salarial se remite a su vez a otro u otros algoritmos que, a su vez, pueden presentar sesgos discriminatorios que se diluyen en esta cadena algor\u00edtmica. De ah\u00ed que, incluso esta autora, proponga como posible soluci\u00f3n \u201c<em>la creaci\u00f3n de algoritmos de control de los algoritmos<\/em>\u201d.<\/p>\n<p><sup>126<\/sup> La no tan cercana STS de 25 de septiembre de 2018 (RJ 2018\/4275) emple\u00f3 un programa para evaluar a los trabajadores y extraer conclusiones sobre qui\u00e9nes eran los que hab\u00edan obtenido mejor valoraci\u00f3n y qui\u00e9nes eran los m\u00e1s vers\u00e1tiles, para extinguir las relaciones laborales -despido colectivo- de quienes no alcanzaban determinados umbrales. Se legitima, con ella, el sistema algor\u00edtmico <em>Skill Competency Matrix<\/em>, para la selecci\u00f3n de las personas trabajadoras que ser\u00e1n objeto de un despido colectivo.<\/p>\n<p><sup>127<\/sup> MOLINA NAVARRETE, C.: \u201c<em>Big data <\/em>y relaciones laborales\u201d [V\u00eddeo], <em>op.cit.<\/em><\/p>\n<p><sup>128<\/sup> Eso es lo que sostiene OLARTE ENCABO S. \u201cLa aplicaci\u00f3n de la inteligencia artificial a los procesos de selecci\u00f3n de personal y ofertas de empleo: impacto sobre el derecho a la no discriminaci\u00f3n\u201d <em>op.cit.<\/em>,92 \u201c\u2026 <em>ya que en el mercado de trabajo tradicional, la lesi\u00f3n se limita a la fase de la elecci\u00f3n, mientras que en el mercado on line la potencialidad discriminatoria se proyecta m\u00e1s ampliamente, incluso en la publicidad de la oferta de trabajo (c\u00f3mo se presenta la oferta de trabajo a los posibles interesados) y en la preselecci\u00f3n que comporta seleccionar quienes pueden o no visualizar una determinada oferta de trabajo<\/em>\u201d.<\/p>\n<p>Entendemos que efectivamente las posibilidades de discriminar son cuantitativamente superiores a las del denominado mercado de trabajo tradicional, no obstante, la forma de presentar la oferta de trabajo aun cuando no se empleen medios de selecci\u00f3n automatizada, tambi\u00e9n puede ser discriminatoria. Recu\u00e9rdese -aunque no prosperara la pretensi\u00f3n de la parte actora- lo ocurrido con la convocatoria de Iberia en relaci\u00f3n a la cobertura de plazas de auxiliar de vuelo y c\u00f3mo a trav\u00e9s de la misma se limitaba el acceso a determinadas personas que no tuvieran la edad requerida, la altura determinada (variando esta en funci\u00f3n de si se era var\u00f3n o mujer) y limit\u00e1ndose tambi\u00e9n a las personas que padecieran de miop\u00eda (m\u00e1s de dos dioptr\u00edas) y las que sufriendo este defecto visual en grado inferior al l\u00edmite no portaban microlentillas. Sentencia del Tribunal Supremo de 27 de diciembre de 1999 (RJ 1999\/10091).<\/p>\n<p>Problemas tambi\u00e9n planteados en relaci\u00f3n a la no discriminaci\u00f3n de determinadas ofertas de empleo para el sector p\u00fablico o en el sector privado mostradas a trav\u00e9s incluso de meras manifestaciones verbales en las que se infiere claramente la voluntad del empleador de no contratar a determinadas personas por la \u00fanica y exclusiva circunstancia de no ser nacionales del pa\u00eds.<\/p>\n<p>En definitiva, el riesgo de discriminar desde la propia configuraci\u00f3n de la oferta de empleo siempre ha existido, no siendo f\u00e1cil reconocerla, especialmente, en este estadio.<\/p>\n<p>As\u00ed, nos alineamos con la reflexi\u00f3n que realiza RIVAS VALLEJO, P<em>.: La aplicaci\u00f3n de la Inteligencia Artificial al trabajo y su impacto discriminatorio<\/em>, <em>op.cit.<\/em>, p. 219 <em>\u201c\u00bfPor qu\u00e9 crea la tecnolog\u00eda nuevos campos de discriminaci\u00f3n? Esto no es totalmente cierto, pues aquella se limita a reproducir virtualmente la realidad social y con ello sus profundas desigualdades sociales\u201d.<\/em><\/p>\n<p><sup>129<\/sup> SORIANO ARNANZ, A.: \u201cDecisiones automatizadas y discriminaci\u00f3n: aproximaci\u00f3n y propuestas generales\u201d, <em>op.cit.<\/em>, \u201c\u2026<em>si a una persona le es negado el acceso a un bien o servicio o no se le escoge para un puesto de trabajo porque pertenece a un grupo desaventajado, o por otros elementos que se encuentran vinculados a la pertenencia al grupo, se le est\u00e1 negando la libertad. Es por ello que la protecci\u00f3n de la igualdad debe tambi\u00e9n ser entendida como protecci\u00f3n de la libertad<\/em>\u201d<\/p>\n<p><sup>130<\/sup> V\u00e9ase, el Eurobar\u00f3metro sobre discriminaci\u00f3n (mayo 2019) en el que se deja plena constancia de la percepci\u00f3n europea sobre la discriminaci\u00f3n, siendo la etnia gitana el colectivo m\u00e1s perjudicado. Un resumen en castellano: https:\/\/<a href=\"http:\/\/www.gitanos.org\/upload\/95\/84\/eb_espanol.pdf\">www.gitanos.org\/upload\/95\/84\/eb_espanol.pdf<\/a> [Fecha de consulta: 24\/11\/2021].<\/p>\n<p><sup>131<\/sup> S\u00c1EZ LARA, C.: \u201cEl algoritmo como protagonista de la relaci\u00f3n laboral. Un an\u00e1lisis desde la perspectiva de la prohibici\u00f3n de discriminaci\u00f3n\u201d. <em>Temas Laborales <\/em>n\u00fam. 155\/2020. P. 46. Nos desaconseja plantear el debate acerca de cu\u00e1l es m\u00e1s discriminatorio la decisi\u00f3n humana o la automatizada La pregunta verdaderamente relevante es si el marco normativo actual resulta suficiente para evitar los efectos perversos que entra\u00f1a esta particular forma de manifestaci\u00f3n de la discriminaci\u00f3n, en atenci\u00f3n precisamente a los particulares rasgos que presenta. Desliza la autora la necesidad de enfocar este riesgo de discriminaci\u00f3n no solo desde el punto de vista exclusivamente jur\u00eddico, sino tambi\u00e9n teniendo en cuenta los aspectos t\u00e9cnicos.<\/p>\n<p><sup>132<\/sup> RIVAS VALLEJO, P. (22 de junio de 2021). \u201cDiscriminaci\u00f3n algor\u00edtmica en el trabajo\u201d [V\u00eddeo]- <em>op.cit.<\/em><\/p>\n<p><sup>133<\/sup> COTINO HUESO, L.: \u201c<em>Big data <\/em>e inteligencia artificial. Una aproximaci\u00f3n a su tratamiento jur\u00eddico desde los derechos fundamentales\u201d. <em>op.cit.<\/em>, p. 138.<\/p>\n<p><sup>134<\/sup> Vid. EUBANKS, V.: <em>La automatizaci\u00f3n de la desigualdad. Herramientas de tecnolog\u00eda avanzada para supervisar y castigar a los pobres<\/em>. <em>op.cit. <\/em>A lo largo de 259 p\u00e1ginas se nos relatan supuestos concretos por medio de los cuales la tecnolog\u00eda, los algoritmos vienen perjudicando a las clases m\u00e1s pobres y marginadas -a pesar de que la visi\u00f3n que se haya querido ofrecer sea justamente la contraria-. Estos perjuicios se han visto acentuados con la crisis econ\u00f3mica, pues esta acent\u00faa el riesgo de sometimiento a un control m\u00e1s f\u00e9rreo. De otra parte, la estandarizaci\u00f3n a la que nos lleva la inteligencia artificial y la respuesta autom\u00e1tica a los distintos problemas cotidianos a trav\u00e9s de los algoritmos no es exclusiva del mundo del empleo. La autora apuesta por promover la ense\u00f1anza de aquellas habilidades que la inteligencia artificial no puede conseguir (as\u00ed, la curiosidad, el pensamiento cr\u00edtico o la creatividad).<\/p>\n<p>\u201c<em>En su c\u00e9lebre novela 1984, George Orwell se equivoc\u00f3 en una cosa. El Gran Hermano no nos observa como individuos, sino como colectivo\u2026 Las personas de color, los migrantes, los grupos religiosos impopulares, las minor\u00edas sexuales, los pobres y otras poblaciones oprimidas y explotadas soportan una carga de control y rastreo muy superior a la de los grupos privilegiados<\/em>\u201d (<em>op.cit.<\/em>, pp. 18 y 19).<\/p>\n<p><sup>135<\/sup> COTINO HUESO, L.: \u201c<em>Big data <\/em>e inteligencia artificial. Una aproximaci\u00f3n a su tratamiento jur\u00eddico desde los derechos fundamentales\u201d. <em>Dilemata <\/em>n\u00fam. 24. 2017. P. 138. Cita tambi\u00e9n a Barocas y Selbst 2016, 675,714.<\/p>\n<p><sup>136<\/sup> EUBANKS, V.: <em>La automatizaci\u00f3n de la desigualdad. Herramientas de tecnolog\u00eda avanzada para supervisar y castigar a los pobres<\/em>. <em>op.cit. <\/em>p. 54: \u201c<em>Los defensores de la adopci\u00f3n de la automatizaci\u00f3n y los algoritmos por parte de los servicios sociales suelen describir la nueva generaci\u00f3n de herramientas digitales como \u201cdisruptivas\u201d. Explican que los datos masivos, el big data, agilizan los r\u00edgidos procesos burocr\u00e1ticos, estimulan la adopci\u00f3n de soluciones innovadoras y fomentan la transparencia. Pero cuando nos centramos en programas dirigidos espec\u00edficamente a los pobres y la clase trabajadora, el nuevo r\u00e9gimen de an\u00e1lisis de dato tiene m\u00e1s de evoluci\u00f3n que de revoluci\u00f3n. Se trata, simple y llanamente, de una ampliaci\u00f3n y continuaci\u00f3n de unas estrategias de gesti\u00f3n de la pobreza moralistas y punitivas aplicadas desde la d\u00e9cada de 1820<\/em>\u201d. Y aunque la autora se refiere a EEUU, no olvidemos c\u00f3mo en nuestro pa\u00eds la gesti\u00f3n del ingreso m\u00ednimo vital tambi\u00e9n por medios algor\u00edtmicos se nos present\u00f3 como la panacea. La idea -MOLINA NAVARRETE, C.: <em>Big data y relaciones laborales <\/em>[V\u00eddeo]- era que disponiendo de una ingente informaci\u00f3n previa, se identificar\u00edan las situaciones de necesidad real y as\u00ed se podr\u00eda otorgar la prestaci\u00f3n a las personas que realmente estaban viviendo una realidad menesterosa, descartando a los individuos que no lo precisaban y sin que fuera necesario emplear para ello un exceso de recursos humanos. Se pensaba entonces en que m\u00e1s de cien mil familias no tendr\u00edan que acreditar nada porque se lo reconocer\u00edan de oficio. Lamentablemente la realidad ha desmentido ese objetivo tan encomiable.<\/p>\n<p><sup>137<\/sup> Amparando la confidencialidad en los datos y el c\u00f3digo, el Considerando 63 del RGPD, la Directiva 2016\/943 de 8 de junio, del Parlamento Europeo y del Consejo, relativa a la protecci\u00f3n de los conocimientos t\u00e9cnicos y la informaci\u00f3n empresarial no divulgados (secretos comerciales) contra su obtenci\u00f3n, utilizaci\u00f3n y revelaci\u00f3n il\u00edcitas, art. 70 de la Propuesta de Reglamento del Parlamento Europeo y del Consejo de Inteligencia Artificial (21 de abril de 2021) y, en nuestro derecho interno el art. 133 de la Ley de Propiedad Intelectual (RDLeg. 1\/96, de 12 de abril)<\/p>\n<p>El posible acceso de los particulares, aun cuando pese sobre ellos una sospecha razonable de que existi\u00f3 violaci\u00f3n en sus derechos (particularmente el de igualdad que hoy nos ata\u00f1e), est\u00e1 vedado. Volviendo, de nuevo, a nuestra doctrina especializada, RIVAS VALLEJO, M.P: \u201cCombatir la discriminaci\u00f3n algor\u00edtmica a trav\u00e9s de instrumentos jur\u00eddicos y formativos: la formaci\u00f3n en perspectiva de g\u00e9nero de los programadores y desarrolladores\u201d [Ponencia] destaca las Sentencias de \u00c1msterdam de 11 de marzo de 2021 (C\/13\/689705 HA RK 20-258 C\/13\/687315; HA RK 20-302 C\/13\/692003\/HA RK 20-302), en las que se declaran que \u201c<em>los conductores no tienen derecho a informaci\u00f3n relevante sobre el algoritmo<\/em>\u201d.<\/p>\n<p><sup>138<\/sup> Siguiendo con RIVAS VALLEJO, P., nos manifiesta c\u00f3mo la garant\u00eda del derecho a una explicaci\u00f3n quedar\u00eda vac\u00eda de contenido si se ofrecieran datos que no son comprensibles para el trabajador. De ah\u00ed que propugne como estrategia que esa explicaci\u00f3n que se ha de otorgar al trabajador sobre la raz\u00f3n de la decisi\u00f3n empresarial alcanzada, ha de ser inteligible. Vid. RIVAS VALLEJO, P. (22 de junio de 2021). \u201cDiscriminaci\u00f3n algor\u00edtmica en el trabajo\u201d [V\u00eddeo]- <em>op.cit.<\/em><\/p>\n<p><sup>139<\/sup> V\u00e9ase, art.135.c) Ley de Propiedad Intelectual (Real Decreto Legislativo 1\/1996, de 12 de abril) dispone que \u201c<em>1.- El usuario leg\u00edtimo de una base de datos, sea cual fuere la forma en que \u00e9sta haya sido puesta a disposici\u00f3n del p\u00fablico, podr\u00e1, sin autorizaci\u00f3n del fabricante de la base, extraer y\/o reutilizar una parte sustancial del contenido de la misma, en los siguientes casos:\u2026c) Cuando se trate de una extracci\u00f3n y\/o reutilizaci\u00f3n para fines de seguridad p\u00fablica o a efectos de un procedimiento administrativo o judicial<\/em>\u201d.<\/p>\n<p><sup>140<\/sup> Que esta previsi\u00f3n no es la respuesta al problema ha sido destacada, entre otros, por Beltr\u00e1n de HEREDIA RUIZ, I.: \u201cLa irrupci\u00f3n de los algoritmos en el Derecho del Trabajo\u201d. [V\u00eddeo]. <em>op.cit.<\/em><\/p>\n<p><sup>141<\/sup> SORIANO ARNANZ, A.: \u201cDecisiones automatizadas y discriminaci\u00f3n: aproximaci\u00f3n y propuestas generales\u201d, <em>op.cit.<\/em><\/p>\n<p><sup>142<\/sup> VALVERDE ASENCIO, A.J.: <em>Implantaci\u00f3n de sistemas de inteligencia artificial y trabajo<\/em>. Bomarzo. 2020, p. 27: \u201c\u2026 <em>el algoritmo puede ayudar a la toma de decisiones; puede condicionarla si la empresa lo acepta como medio o instrumento para adoptarlas; incluso puede servir de instrumento para determinar concretamente ciertos aspectos en el ejercicio del poder de direcci\u00f3n; pero en ning\u00fan caso puede admitirse ninguna pretensi\u00f3n que supusiera la exculpaci\u00f3n o inimputabilidad de la decisi\u00f3n empresarial basado en que es el algoritmo quien decide en el marco de ninguna relaci\u00f3n contractual y, menos, la laboral<\/em>\u201d. La contundencia de esta afirmaci\u00f3n es suficientemente expresiva por s\u00ed misma, sin que precise de matiz alguno.<\/p>\n<p><sup>143<\/sup> DE LA QUADRA-SALCEDO FERN\u00c1NDEZ DEL CASTILLO, T.: \u201cDerechos fundamentales, democracia y mercado en la edad digital\u201d. <em>Derecho Digital e Innovaci\u00f3n<\/em>, n\u00fam. 2, Abril-Junio 2019, Ed. Wolters Kluwer. Versi\u00f3n digital. P. 3.<\/p>\n<p><sup>144<\/sup> Esa llamada a la negociaci\u00f3n colectiva es preconizada por la doctrina. Por todos, MOLINA NAVARRETE, C.: quien se pregunta si los algoritmos son, en realidad, condiciones de trabajo. T\u00e9ngase en cuenta que si la respuesta es afirmativa, la negociaci\u00f3n colectiva ser\u00eda el instrumento natural para encauzar su regulaci\u00f3n.<\/p>\n<p>GARRIGUES GIM\u00c9NEZ, A.: \u201cHerramientas sindicales: la negociaci\u00f3n colectiva\u201d. [Ponencia]. Expone que la \u00fanica soluci\u00f3n para limitar a los algoritmos es la negociaci\u00f3n colectiva.<\/p>\n<p>La preocupaci\u00f3n (y ocupaci\u00f3n) sobre el algoritmo y la inteligencia artificial se extiende a los sindicatos. As\u00ed, a t\u00edtulo de ejemplo, la Gu\u00eda de Negociaci\u00f3n Colectiva y Digitalizaci\u00f3n 2020 (septiembre) Cuadernos de Acci\u00f3n Sindical. CCOO. Disponible en af6e35ab004a61334480e3b2bcae0e93000001.pdf (ccoo.es).<\/p>\n<p><sup>145<\/sup> FERN\u00c1NDEZ GARC\u00cdA, A.: \u201cIntermediaci\u00f3n laboral y discriminaci\u00f3n\u201d, <em>op.cit.<\/em>, p. 18.<\/p>\n<p><sup>146<\/sup> MERCADER UGUINA, J.R: \u201cLa regulaci\u00f3n de los algoritmos\u201d. [Debate online] <em>op.cit. <\/em>Llamada a la negociaci\u00f3n colectiva de la que no es ajena la propia ley de protecci\u00f3n de datos.<\/p>\n<p><sup>147<\/sup> La propia Ley de Inteligencia Artificial le dedica un T\u00edtulo (T\u00edtulo IX) a contemplar los c\u00f3digos de conducta.<\/p>\n<p><sup>148<\/sup> La emisi\u00f3n de un juicio por un ser humano no est\u00e1 exenta de condicionantes que influyen en la decisi\u00f3n final. La intuici\u00f3n est\u00e1 presente en la mayor parte de los enjuiciamientos que hacemos y aunque este factor no pueda equipararse a la existencia de un sesgo que invalide el pronunciamiento final, s\u00ed que es cierto que ese \u201c<em>ruido<\/em>\u201d enturbia el resultado. KAHNEMAN, D., SIBONY, O. y SUNSTEIN, C.R.: <em>Ruido. Un fallo en el juicio humano<\/em>. Debate. 2021. A pesar de ello, no podemos alcanzar la conclusi\u00f3n -siguiendo a estos autores- de que los algoritmos sean la soluci\u00f3n para garantizar, hoy por hoy, que las predicciones alcanzadas por ellos sean mejores decisiones.<\/p>\n<p><sup>149<\/sup> MERCADER UGUINA, J. R. (2021). \u201cDiscriminaci\u00f3n algor\u00edtmica y derecho granular: nuevos retos para la igualdad en la era del <em>big data<\/em>\u201d. <em>op.cit.<\/em>, p. 6. MOLINA NAVARRETE, C.: \u201c\u00abDuelo al sol\u00bb (digital). \u00bfUn algoritmo controla mi trabajo? S\u00ed; a tu empresa tambi\u00e9n\u201d. <em>op.cit.<\/em>, p. 21 \u201c-<em>La garant\u00eda efectiva de no discriminaci\u00f3n algor\u00edtmica, que requiere tambi\u00e9n de t\u00e9cnicas espec\u00edficas (precauci\u00f3n, EIPD, etc.) no solo las comunes<\/em>\u201d.<\/p>\n<p><sup>150<\/sup> El matiz que este autor expresa es relevante. No se trata de conocer el contenido del algoritmo que no discute sea de conocimiento exclusivo empresarial, sino \u201c<em>la l\u00f3gica del algoritmo<\/em>\u201d, pues la transparencia es el m\u00e9todo para descubrir la posible discriminaci\u00f3n. MERCADER UGUINA, J.R.: La regulaci\u00f3n de los algoritmos, <em>op.cit. <\/em>Es decir (MERCADER UGUINA, J. R.: \u201cAlgoritmos y derecho del trabajo\u201d, <em>op.cit.<\/em>, p. 65) \u201c<em>El responsable del tratamiento debe hallar formas sencillas de informar al interesado acerca de la l\u00f3gica subyacente o los criterios utilizados para llegar a la decisi\u00f3n\u201d, porque de lo que se trata es de que el interesado \u201centienda los motivos de la decisi\u00f3n<\/em>\u201d. De esta forma, se sit\u00faa al lado de lo que precept\u00faa el informe del Consejo Econ\u00f3mico Social Europeo en \u201cInteligencia Artificial: anticipar su impacto en el trabajo para garantizar una transici\u00f3n justa\u201d (DOUE 6\/12\/2018) y particularmente el enunciado: \u201c<em>no consiste en revelar c\u00f3digos, sino en hacer inteligibles los par\u00e1metros y criterios de las decisiones que se toman<\/em>\u201d.<\/p>\n<p>En definitiva, siguiendo a este mismo autor (MERCADER UGUINA, J. R.: \u201cAlgoritmos y derecho del trabajo\u201d. <em>op.cit. <\/em>p. 65) debe observarse la \u201c<em>garant\u00eda de minimizaci\u00f3n de los datos<\/em>\u201d.<\/p>\n<p><sup>151<\/sup> Aspecto este destacado por la Comunicaci\u00f3n de la Comisi\u00f3n al Parlamento Europeo, al Consejo, al Comit\u00e9 Econ\u00f3mico y Social Europeo y al Comit\u00e9 de las Regiones titulada \u201cGenerar confianza en la inteligencia artificial centrada en el ser humano\u201d (Bruselas. 8\/04\/2019). Se recogen los siguientes \u201c<em>requisitos esenciales para una inteligencia artificial fiable<\/em>\u201d. Intervenci\u00f3n y supervisi\u00f3n humana; solidez y seguridad t\u00e9cnicas; privacidad y protecci\u00f3n de datos; transparencia (a fin de garantizar la \u201ctrazabilidad\u201d y \u201cexplicabilidad<em>\u201d<\/em>); diversidad, no discriminaci\u00f3n y equidad (para lo cual habr\u00e1 de establecerse \u201cequipos de dise\u00f1o diversificados y crear mecanismos que garanticen la participaci\u00f3n, en particular de los ciudadanos, en el desarrollo de la inteligencia artificial); bienestar social y medioambiental; rendici\u00f3n de cuentas.<\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>MAR\u00cdA JOS\u00c9 ASQUERINO LAMPARERO Universidad de Sevilla 1.\u00a0 INTRODUCCI\u00d3N Partiendo de la clarificaci\u00f3n de conceptos tales como algoritmo, inteligencia artificial y big data se pretende analizar la afectaci\u00f3n sobre un derecho concreto: el de no discriminaci\u00f3n. Estas herramientas caracter\u00edsticas de la nueva Edad que estamos viviendo son instrumentos valios\u00edsimos para cualquiera de los \u00e1mbitos sociales&#8230;<\/p>\n","protected":false},"author":25,"featured_media":4968,"comment_status":"open","ping_status":"open","sticky":true,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[275,247,91,111,258,35],"tags":[],"class_list":["post-4967","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-algoritmos","category-disriminacion","category-maria-jose-asquerino-lamparero","category-nuevas-causas-y-perfiles-de-discriminacion","category-proyecto","category-publicaciones"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/grupo.us.es\/iwpr\/wp-content\/uploads\/2022\/04\/laptop-g4951b1e73_640.png?fit=640%2C434&ssl=1","jetpack_shortlink":"https:\/\/wp.me\/p7HIjh-1i7","jetpack-related-posts":[{"id":4928,"url":"https:\/\/grupo.us.es\/iwpr\/2022\/04\/26\/publicado-el-quinto-numero-de-la-revista-trabajo-persona-derecho-y-mercado\/","url_meta":{"origin":4967,"position":0},"title":"Publicado El Quinto N\u00famero De La Revista \u00abTrabajo, Persona, Derecho Y Mercado\u00bb","author":"Admin","date":"26 abril, 2022","format":false,"excerpt":"Se ha publicado el quinto n\u00famero de la revista \u00abTrabajo, Persona, Derecho y Mercado\u00bb. Se trata de un monogr\u00e1fico dedicado a la discriminaci\u00f3n y, m\u00e1s exactamente, algunas de sus expresiones en el contexto de las relaciones laborales. Concretamente, aquellas nacidas de las nuevas realidades, ya que, estas introducen otros factores\u2026","rel":"","context":"En \u00abdisriminaci\u00f3n\u00bb","block_context":{"text":"disriminaci\u00f3n","link":"https:\/\/grupo.us.es\/iwpr\/category\/disriminacion\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/grupo.us.es\/iwpr\/wp-content\/uploads\/2020\/09\/Revista.jpg?fit=253%2C361&ssl=1&resize=350%2C200","width":350,"height":200},"classes":[]},{"id":4977,"url":"https:\/\/grupo.us.es\/iwpr\/2022\/04\/30\/el-ultimo-numero-de-la-revista-cielo-laboral-publica-trabajos-generados-en-nuestro-proyecto-de-investigacion\/","url_meta":{"origin":4967,"position":1},"title":"El \u00faltimo n\u00famero de la revista CIELO-Laboral publica trabajos generados en nuestro proyecto de investigaci\u00f3n","author":"Miguel Carlos Rodr\u00edguez-Pi\u00f1ero Royo","date":"30 abril, 2022","format":false,"excerpt":"La revista CIELO ha publicado un n\u00famero en cuya parte monogr\u00e1fica se han publicado varios trabajos de investigadores vinculados a este blog. Esta parte lleva por t\u00edtulo \"Discriminaci\u00f3n y nuevas realidades econ\u00f3micas, tecnol\u00f3gicas y sociales\", y ha sido coordinada por el profesor Dr. Jos\u00e9 Manuel Morales Ortega. Esta revista es\u2026","rel":"","context":"En \u00abAlcohol\u00bb","block_context":{"text":"Alcohol","link":"https:\/\/grupo.us.es\/iwpr\/category\/alcohol\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/grupo.us.es\/iwpr\/wp-content\/uploads\/2022\/03\/CIELO-header-red3_16-novembre.png?fit=1104%2C238&ssl=1&resize=350%2C200","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/grupo.us.es\/iwpr\/wp-content\/uploads\/2022\/03\/CIELO-header-red3_16-novembre.png?fit=1104%2C238&ssl=1&resize=350%2C200 1x, https:\/\/i0.wp.com\/grupo.us.es\/iwpr\/wp-content\/uploads\/2022\/03\/CIELO-header-red3_16-novembre.png?fit=1104%2C238&ssl=1&resize=525%2C300 1.5x, https:\/\/i0.wp.com\/grupo.us.es\/iwpr\/wp-content\/uploads\/2022\/03\/CIELO-header-red3_16-novembre.png?fit=1104%2C238&ssl=1&resize=700%2C400 2x, https:\/\/i0.wp.com\/grupo.us.es\/iwpr\/wp-content\/uploads\/2022\/03\/CIELO-header-red3_16-novembre.png?fit=1104%2C238&ssl=1&resize=1050%2C600 3x"},"classes":[]},{"id":4908,"url":"https:\/\/grupo.us.es\/iwpr\/2022\/04\/21\/nueva-publicacion-del-proyecto-de-investigacion-6\/","url_meta":{"origin":4967,"position":2},"title":"Nueva Publicaci\u00f3n Del Proyecto FEDER sobre nuevas formas de discriminaci\u00f3n","author":"Admin","date":"21 abril, 2022","format":false,"excerpt":"En el marco del Proyecto de Investigaci\u00f3n denominado \"Nuevas causas y perfiles de discriminaci\u00f3n e instrumentos para la tutela antidiscriminatoria en el nuevo contexto tecnol\u00f3gico y social\" (US-1264479), ha sido publicada la monograf\u00eda \u00abRealidad Social y Discriminaci\u00f3n. Estudios sobre diversidad e inclusi\u00f3n social\u00bb,\u00a0de la editorial Laborum. Esta obra ha sido\u2026","rel":"","context":"En \u00abFrancisco Javier Calvo Gallego\u00bb","block_context":{"text":"Francisco Javier Calvo Gallego","link":"https:\/\/grupo.us.es\/iwpr\/category\/francisco-javier-calvo-gallego\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":1207,"url":"https:\/\/grupo.us.es\/iwpr\/2018\/01\/24\/responsabilidad-social-corporativa\/","url_meta":{"origin":4967,"position":3},"title":"Responsabilidad social corporativa","author":"Maria Jos\u00e9 Asquerino Lamparero","date":"24 enero, 2018","format":false,"excerpt":"Canad\u00e1: defensor del pueblo para una empresa responsable:\u00a0http:\/\/www.agorarsc.org\/canada-creara-un-defensor-del-pueblo-para-una-empresa-responsable\/","rel":"","context":"En \u00abEconom\u00eda colaborativa y Derecho Social\u00bb","block_context":{"text":"Econom\u00eda colaborativa y Derecho Social","link":"https:\/\/grupo.us.es\/iwpr\/category\/economia-colaborativa-y-derecho-social\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":4943,"url":"https:\/\/grupo.us.es\/iwpr\/2022\/04\/26\/presentacion-del-quinto-numero-de-la-revista-trabajo-persona-derecho-y-mercado\/","url_meta":{"origin":4967,"position":4},"title":"Presentaci\u00f3n Del Quinto N\u00famero De La Revista \u00abTrabajo, Persona, Derecho Y Mercado\u00bb","author":"Admin","date":"26 abril, 2022","format":false,"excerpt":"Jose M. Morales Ortega Universidad de M\u00e1laga M\u00aa Jos\u00e9 Asquerino Lamparero Universidad de Sevilla Los d\u00edas 16 y 17 de marzo de 2022 se celebr\u00f3, en la Facultad de Ciencias del Trabajo de la Universidad Hispalense, el Congreso Internacional denominado Discriminaci\u00f3n y nuevas realidades econ\u00f3micas, tecnol\u00f3gicas y sociales organizado por\u2026","rel":"","context":"En \u00abdisriminaci\u00f3n\u00bb","block_context":{"text":"disriminaci\u00f3n","link":"https:\/\/grupo.us.es\/iwpr\/category\/disriminacion\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/grupo.us.es\/iwpr\/wp-content\/uploads\/2020\/09\/Revista.jpg?fit=253%2C361&ssl=1&resize=350%2C200","width":350,"height":200},"classes":[]},{"id":5240,"url":"https:\/\/grupo.us.es\/iwpr\/2022\/12\/01\/discriminacion-por-situacion-socioeconomica\/","url_meta":{"origin":4967,"position":5},"title":"Discriminaci\u00f3n por situaci\u00f3n socioecon\u00f3mica","author":"Miguel Carlos Rodr\u00edguez-Pi\u00f1ero Royo","date":"1 diciembre, 2022","format":false,"excerpt":"Este trabajo se ha publicado originalmente en Noticias Cielo, n\u00ba 11-2022, y puede accederse a esta publicaci\u00f3n mediante este enlace Mar\u00eda Jos\u00e9 Asquerino Lamparero Profesora Ayudante Doctora de Derecho del Trabajo y de la Seguridad Social Universidad de Sevilla Disponemos un art\u00edculo que eleva a rango de derecho fundamental la\u2026","rel":"","context":"En \u00abAporofobia\u00bb","block_context":{"text":"Aporofobia","link":"https:\/\/grupo.us.es\/iwpr\/category\/aporofobia\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]}],"jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/grupo.us.es\/iwpr\/wp-json\/wp\/v2\/posts\/4967","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/grupo.us.es\/iwpr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/grupo.us.es\/iwpr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/grupo.us.es\/iwpr\/wp-json\/wp\/v2\/users\/25"}],"replies":[{"embeddable":true,"href":"https:\/\/grupo.us.es\/iwpr\/wp-json\/wp\/v2\/comments?post=4967"}],"version-history":[{"count":2,"href":"https:\/\/grupo.us.es\/iwpr\/wp-json\/wp\/v2\/posts\/4967\/revisions"}],"predecessor-version":[{"id":4970,"href":"https:\/\/grupo.us.es\/iwpr\/wp-json\/wp\/v2\/posts\/4967\/revisions\/4970"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/grupo.us.es\/iwpr\/wp-json\/wp\/v2\/media\/4968"}],"wp:attachment":[{"href":"https:\/\/grupo.us.es\/iwpr\/wp-json\/wp\/v2\/media?parent=4967"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/grupo.us.es\/iwpr\/wp-json\/wp\/v2\/categories?post=4967"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/grupo.us.es\/iwpr\/wp-json\/wp\/v2\/tags?post=4967"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}