Estás aquí
Home > Algoritmos > El Reglamento Europeo de IA y su afectación al mundo laboral

El Reglamento Europeo de IA y su afectación al mundo laboral

Miguel Rodríguez-Piñero Royo, Universidad de Sevilla

IUSLABLOG, Iniciativa Interblogs

 

Esta entrada forma parte de una iniciativa Interblogs de Derecho del Trabajo “La regulación de la Inteligencia Artificial en el Mundo laboral”, en la que se comentan diferentes aspectos de la Regulación de la Inteligencia Artificial en el mundo laboral. Esta iniciativa es el preludio a un Congreso que se celebrará en la Facultat de Dret de la Universidad de Valencia el 20 y 21 de junio de 2024. La iniciativa y el congreso forman parte del proyecto de investigación del Ministerio de Ciencia e Innovación titulado “Algoritmos extractivos y neuroderechos. Retos regulatorios de la digitalización del trabajo” ref. PID2022-139967NB-I00 IP Adrián Todolí y Ignasi Beltrán y del Proyecto de Investigación “La huida del mercado de trabajo y la legislación social en España (TRABEXIT), PID2022-141201OB-I00″, dirigido por el profesor Miguel Rodríguez-Piñero Royo y la profesora María Luisa Pérez Guerrero

 

El titular ha sido que se ha acordado finalmente la Ley de Inteligencia Artificial. El dato ha sido la aprobación de Resolución legislativa del Parlamento Europeo, de 13 de marzo de 2024, sobre la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)). La jerga comunitaria habla de “Reglamento de Inteligencia Artificial” o de “Ley de Inteligencia Artificial”, siguiendo el uso no sólo de ponerle motes a las normas (como también ocurre en España), sino también de nombrarlas con una denominación inapropiada, la de “ley”, que no se contempla en los tratados fundacionales. Los que tenemos ya abundantes trienios en el Derecho del Trabajo recordamos qué ocurrió cuando el Proyecto de Constitución para la Unión Europea quiso crear “leyes europeas” y “leyes marco europeas” en su artículo I-34: que nunca vieron la luz.

De este reglamento se ha ocupado ya, con su rigor y celeridad habituales, el profesor Rojo Torrecilla, decano de los blogueros iuslaboristas españoles, en su entrada “UE. Aprobación del Reglamento de inteligencia artificial. Primeras notas descriptivas sobre el contenido laboral y de protección social” (accesible en https://www.eduardorojotorrecilla.es/2024/03/ue-aprobacion-del-reglamento-de.html). Como siempre, la remisión a su estudio nos libera de un análisis detallado de sus contenidos laborales, que han sido ya perfectamente identificadas y valoradas por nuestro colega. Me limitaré a señalar algunos aspectos que me parecen especialmente interesantes, y a realizar alguna reflexión general de lo que supone esta aprobación, siempre desde la perspectiva del Derecho del Trabajo. Comienzo con ello la iniciativa interproyectos sobre Derecho de la Inteligencia Artificial, en la que desde varios blogs especializados en Derecho del Trabajo se aportarán visiones sobre esta materia.

El proceso legislativo unioneuropeo no es precisamente sencillo, y este reglamento es buena prueba de ello, puesto que texto original fue presentado por la Comisión Europea en el año 2021. No es tanto tiempo, sin embargo, si tenemos en cuenta los tiempos que han requerido aprobar otras normas de la Unión en materia laboral; y si consideramos el desafío que supone regular una materia como ésta, trascendental, novedosa, en conformación y con multitud de intereses afectados.

La complejidad del procedimiento tiene una ventaja para el operador jurídico nacional, que las distintas fases van dejando su huella, sucediéndose las versiones, enmiendas y modificaciones que quedan al alcance del intérprete. A lo que se une la tradición de reflejar muchos de los debates suscitados en torno a la norma en sus considerandos, que se alargan y entran en detalles concretos. A diferencia de cuanto ocurre en España, estos considerandos resultan bastante útiles, por ser informativos y explicativos. El Tribunal de Justicia los maneja como base para justificar sus decisiones, incluyéndolos entre los antecedentes de sus sentencias. El resultado final es que desde el mismo momento en que se aprueba la norma el intérprete dispone de datos para apoyar su labor, teniendo bastante claro, en general, cuál es la intención del legislador eurounitario. De alguna manera, el hard-law de la Unión viene acompañado de su propio soft-law. Sólo que en lugar de adoptar el esquema de complementación entre dos normas de distinta naturaleza imperativa (Convenio y Recomendación, en el caso de la Organización Internacional del Trabajo), una sólo norma cumple ambas funciones.

Nos encontramos ante una norma extensa, con ciento ochenta considerandos, ciento trece artículos y trece Anexos. El artículo 1 establece que su objetivo es mejorar el funcionamiento del mercado interior y promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales, en particular la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de inteligencia artificial en la Unión, así como brindar apoyo a la innovación. Una acumulación de objetivos, algunos típicos de la Unión, que como laboralistas nos interesa especialmente en su referencia a la tutela de los derechos fundamentales. A lo largo del proceso de elaboración de esta norma la Comisión Europea sostuvo que su objetivo era garantizar el “desarrollo ético” de la IA.

El Reglamento, por resumir, proporciona una lista de definiciones de los conceptos fundamentales en la materia; clasifica los sistemas de IA según su nivel de riesgo; establece marcos regulatorios diferenciados; y construye un marco de administración pública de la IA, incluyendo organismos de control y mecanismos sancionadores. Se apoya en otras disposiciones preexistentes del Derecho de la Unión, sin la intención de modificarlas en la mayor parte de los casos; y prevé su desarrollo mediante textos normativos de distinta naturaleza, desde directivas a protocolos, incluyendo una delegación a la Comisión para adoptar actos con arreglo al artículo 290 del Tratado de Funcionamiento de la Unión Europea (actos no legislativos de alcance general que completen o modifiquen determinados elementos no esenciales de un acto legislativo).

El Reglamento se convierte así en un texto de referencia para una nueva rama del Derecho de la Tecnología, el referido a la IA, estableciendo sus bases y dando pie a la elaboración de normas posteriores, de desarrollo o de actualización. Comparte este papel con el del Reglamento General de Protección de Datos en su campo. Norma con la que condivide, por cierto, un espacio de regulación desde el momento en que en éste se establecen reglas para las decisiones basadas únicamente en el tratamiento automatizado, incluida la elaboración de perfiles; también la Ley IA contiene previsiones sobre el tratamiento de los datos obtenidos durante la aplicación de los sistemas de IA.

Este papel central hace que su aprobación sea un paso muy importante en la construcción del Derecho Algorítmico, que tiene indudablemente una vertiente laboral, ya que proporciona un núcleo común de regulación, ambicioso y técnicamente avanzado, que será aplicado de manera uniforme y simultánea en todos los Estados miembros. Está llamado a ser no el único texto en la materia, sino un enclave normativo que coincidirá en su aplicación con otras normas sectoriales. En el muy interesante considerando 9 se dice que las normas armonizadas que se establecen deben aplicarse en todos los sectores y deben entenderse sin perjuicio del Derecho vigente de la Unión, en particular en materia de protección de datos, derechos fundamentales, empleo y protección de los trabajadores, entre otras materias, al que complementa el Reglamento. A lo que añade, ya específicamente en lo que en este comentario interesa, que “en el contexto del empleo y la protección de los trabajadores, el presente Reglamento no debe afectar, por tanto, al Derecho de la Unión en materia de política social ni a la legislación laboral nacional —conforme al Derecho de la Unión— relativa a las condiciones de empleo y de trabajo, incluidas la salud y seguridad en el trabajo y la relación entre empleadores y trabajadores. El presente Reglamento tampoco debe afectar en modo alguno al ejercicio de los derechos fundamentales reconocidos en los Estados miembros y a escala de la Unión, incluidos el derecho o la libertad de huelga o de emprender otras acciones contempladas en los sistemas de relaciones laborales específicos de los Estados miembros y el derecho a negociar, concluir y hacer cumplir convenios colectivos o a llevar a cabo acciones colectivas conforme a la legislación nacional.”

En la construcción de este Derecho Algorítmico del Trabajo el Reglamento de IA se ve auxiliado por la Directiva relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales, ya aprobada igualmente, una parte de cuyas disposiciones se refieren a la tutela de los derechos de los trabajadores cuando se utilizan algoritmos en la gestión de los recursos humanos en este tipo de empresas. Expresamente lo indican los considerandos, que dicen que el Reglamento “no debe afectar a las disposiciones destinadas a mejorar las condiciones laborales en el trabajo en plataformas digitales establecidas en la Directiva (UE) 2024/… del Parlamento Europeo y del Consejo” (no se conocía la referencia de esta norma en el momento de aprobación de la Ley IA).

Se consolida de esta manera una anomalía, a mi juicio, en la regulación laboral de los algoritmos, la presencia de dos normas operando en paralelo, una general para todo tipo de empresas, y otra especial para las plataformas digitales. En los considerandos del Reglamento se señala que, cuando se regulan los sistemas de IA de alto riesgo que tienen que ver con la gestión de personas, que “las relaciones contractuales de índole laboral deben incluir, de manera significativa, a los empleados y las personas que prestan servicios a través de plataformas, como indica el programa de trabajo de la Comisión para 2021”.

Esta dicotomía no tiene, siempre según mi entender, mucho sentido, una vez se ha podido aprobar la regulación general, que sería el lugar natural para incluir alguna especialidad para el uso de algoritmos en las plataformas digitales. Una norma específica si estaría justificada, seguramente, para la parte más laboral de la ordenación de las plataformas, la relativa a la calificación de los sujetos empleados por éstas. Son razones de oportunidad política las que explican la pervivencia de este modelo dual.

La aprobación de este Reglamento tiene un importante efecto de dar visibilidad a la cuestión de la IA y de su regulación. Desde esta perspectiva, la denominación que se le ha dado tiene todo el sentido, en términos de pura mercadotecnia. Se llama la atención sobre los riesgos que supone esta realidad y sobre la necesidad de su regulación por los poderes públicos, además de proporcionar una terminología muy elaborada y correcta para su utilización por los operadores jurídicos. Será un instrumento muy eficiente para lograr lo que el propio Reglamento pretende lograr, la “alfabetización en materia de inteligencia artificial”, que es definida como “las capacidades, los conocimientos y la comprensión que permiten a los proveedores, responsables del despliegue y demás personas afectadas, teniendo en cuenta sus respectivos derechos y obligaciones en el contexto del presente Reglamento, llevar a cabo un despliegue informado de los sistemas de IA y tomar conciencia de las oportunidades y los riesgos que plantea la inteligencia artificial, así como de los perjuicios que puede causar”.

El artículo 3 establece la que será la definición canónica de sistema de IA, por su autoridad normativa y calidad técnica: un sistema basado en una máquina diseñado para funcionar con distintos niveles de autonomía, que puede mostrar capacidad de adaptación tras el despliegue y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar información de salida, como predicciones, contenidos, recomendaciones o decisiones, que puede influir en entornos físicos o virtuales.

Uno de las actuaciones más relevantes del Reglamento es la clasificación que hace de los sistemas de IA, entre las que destacan la de prácticas prohibidas y las de sistemas de alto riesgo.

El artículo 5 identifica dos prácticas de IA que resultan relevantes desde un punto de vista laboral entre las consideradas prohibidas: los que se usen para inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos (salvo los que estén justificados por motivos médicos o de seguridad); y los sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir, entre otros datos,  su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual. La prohibición alcanza la introducción en el mercado, a la puesta en servicio para este fin específico y al uso de los propios sistemas de IA.

A diferencia del resto de los mandatos del Reglamento, para el que se prevé una vacatio legis de dos años, estas prohibiciones deben aplicarse en un plazo de seis meses después de su entrada en vigor.

El siguiente nivel de riesgo, dentro de esta clasificación, sería el de los sistemas de IA de alto riesgo. Para clasificar así un sistema de IA se utilizan varios criterios, como la magnitud de sus consecuencias adversas para los derechos fundamentales protegidos por la Carta. Entre dichos derechos se incluyen el derecho a la dignidad humana, el respeto de la vida privada y familiar, la protección de datos de carácter personal, la libertad de expresión y de información, la libertad de reunión y de asociación, la no discriminación, el derecho a la educación, la protección de los consumidores, los derechos de los trabajadores, los derechos de las personas discapacitadas, la igualdad entre hombres y mujeres, los derechos de propiedad intelectual, el derecho a la tutela judicial efectiva y a un juez imparcial, los derechos de la defensa y la presunción de inocencia, y el derecho a una buena administración.

El Anexo III identifica una serie de sistemas de IA de alto riego relacionados con el empleo, gestión de los trabajadores y acceso al autoempleo, y que son:

  1. a) Sistemas de IA destinados a ser utilizados para la contratación o la selección de personas físicas, en particular para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos
  2. b) Sistemas de IA destinados a ser utilizados para tomar decisiones que afecten a las condiciones de las relaciones de índole laboral o a la promoción o rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales o para supervisar y evaluar el rendimiento y el comportamiento de las personas en el marco de dichas relaciones

Se incluyen en esta categoría los dos grandes espacios de las relaciones laborales en los que se están usando instrumentos de IA, la fase de entrada en la empresa (incluyendo targeting de candidatos, selección, screening process de currículos), y la de gestión de las plantillas (promoción, retribución, ascenso, despido, movilidad…). Esta calificación se explica en los considerandos porque estas decisiones pueden afectar de un modo considerable a las futuras perspectivas laborales, a los medios de subsistencia de dichas personas y a los derechos de los trabajadores. A lo que se añade que pueden perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, ciertos grupos de edad, las personas con discapacidad o las personas de orígenes raciales o étnicos concretos o con una orientación sexual determinada, durante todo el proceso de contratación y en la evaluación, promoción o retención de personas en las relaciones contractuales de índole laboral. Se dice, finalmente, que los sistemas de IA empleados para controlar el rendimiento y el comportamiento de estas personas también pueden socavar sus derechos fundamentales a la protección de los datos personales y a la intimidad.

También se clasifican como de alto riesgo los sistemas vinculados con la educación y formación profesional. Partiendo de que el despliegue de sistemas de IA en el ámbito educativo es importante para fomentar una educación y formación digitales de alta calidad y para que todos los estudiantes y profesores puedan adquirir y compartir las capacidades y competencias digitales necesarias, el Reglamento considera  que merecen esta calificación, en especial aquellos que determinan el acceso o la admisión, distribuyen a las personas entre distintas instituciones educativas y de formación profesional o programas de todos los niveles, evalúan los resultados del aprendizaje de las personas, evalúan el nivel apropiado de educación de una persona e influyen sustancialmente en el nivel de educación y formación que las personas recibirán o al que podrán acceder, o supervisan y detectan comportamientos prohibidos de los estudiantes durante las pruebas.

Esta calificación se explica, según el considerando 56, porque cuando no se diseñan y utilizan correctamente, estos sistemas pueden invadir especialmente y violar el derecho a la educación y la formación, y el derecho a no sufrir discriminación, además de perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, los grupos de una edad determinada, las personas con discapacidad o las personas de cierto origen racial o étnico o con una determinada orientación sexual. Además, estos sistemas pueden decidir la trayectoria formativa y profesional de una persona y, en consecuencia, afectar a su capacidad para asegurar su subsistencia.

Dentro de los sistemas de IA de alto riesgo, a su vez, se distinguen aquellos que, a pesar de ser conforme con el Reglamento, presentan sin embargo un riesgo para la salud o la seguridad de las personas, para los derechos fundamentales de las personas o para otros aspectos de protección del interés público. Para éstos se prevén obligaciones específicas.

Este listado es cerrado, pero el artículo 7 prevé la posibilidad de modificaciones a este Anexo III, que se encomienda a la Comisión mediante actos delegados cuando se reúnan las dos condiciones siguientes:

  1. a) que los sistemas de IA estén destinados a ser utilizados en cualquiera de los ámbitos que figuran en el anexo III; y
  2. b) que los sistemas de IA conlleven el riesgo de causar un perjuicio a la salud y la seguridad o de tener repercusiones negativas en los derechos fundamentales, y que dicho riesgo sea equivalente a, o mayor que, el riesgo de perjuicio o de repercusiones negativas que conlleven los sistemas de IA de alto riesgo que ya se mencionan en el anexo III.

Para evaluar esta última condición la Comisión tendrá en cuenta una serie de criterios, entre los que se incluyen dos que llaman la atención desde un punto de vista del Derecho del Trabajo:  que la utilización del sistema haya tenido repercusiones negativas en los derechos fundamentales o haya dado lugar a problemas importantes en relación con la probabilidad de dicho perjuicio o dichas repercusiones negativas, de un lado; y que exista un desequilibrio de poder o las personas que podrían sufrir dicho perjuicio o dichas repercusiones negativas se encuentren en una posición de vulnerabilidad respecto del responsable del despliegue de un sistema de IA, en particular debido a su situación, autoridad, conocimientos, circunstancias económicas o sociales, o edad, de otro.

Que un sistema de IA sea considerado de alto riesgo tiene múltiples consecuencias. El artículo 86 reconoce un derecho, central en la ordenación de la IA, que es de recibir una explicación de decisiones tomadas individualmente. Esto supone que toda persona que se vea afectada por una decisión que el responsable del despliegue adopte basándose en los resultados de un sistema de IA de alto riesgo que figure en el anexo III, y que produzca efectos jurídicos o le afecte considerablemente del mismo modo, de manera que considere que tiene un efecto perjudicial para su salud, su seguridad o sus derechos fundamentales, tendrá derecho a obtener de este responsable explicaciones claras y significativas acerca del papel que el sistema de IA ha tenido en el proceso de toma de decisiones y los principales elementos de la decisión adoptada.

Un tratamiento especial reciben los sistemas de IA de alto riesgo, que presenten un riesgo para la salud o la seguridad de las personas, para los derechos fundamentales de las personas o para otros aspectos de protección del interés público.

A lo largo del articulado del Reglamento encontramos otras categorías de sistemas de IA, como  los destinados a interactuar directamente con personas físicas; los de reconocimiento de emociones; los de categorización biométrica; los de uso general; los que generen contenido sintético de audio, imagen, vídeo o texto; los que generen o manipulen imágenes o contenidos de audio o vídeo que constituyan una ultrafalsificación; o los que presenten un riesgo.

Una de las críticas que se le hace al Derecho de la tecnología es su escasa sensibilidad a las especialidades y particularidades de otros sectores del ordenamiento. Desde el Derecho del Trabajo esta queja se ha centrado en el olvido de la dimensión colectiva y el excesivo valor dado al consentimiento individual de la persona, que cuando se trata de una que trabaja por cuenta ajena, por muy informado que se esté, no deja de ser discutible.

Esto lo encontramos en el Reglamento General de Protección de Datos, y hasta cierto punto también en el Reglamento de Inteligencia Artificial. Con todo, podemos encontrar alguna referencia a instituciones centrales de lo laboral, como son las organizaciones sindicales, a las que se reconoce cierto papel

Desde la perspectiva individual ya se ha visto como se tutela la libertad sindical prohibiendo  los sistemas de categorización biométrica basados en datos biométricos de las personas físicas, que se usen para deducir o inferir la afiliación sindical de una persona física, aunque con alguna limitación.

A nivel colectivo, en cuanto a las competencias que se reconocen a estas organizaciones, se encuentra su inclusión entre los sujetos que pueden participar en la elaboración de los códigos de buenas prácticas de las empresas. De esta manera, el Reglamento alienta a los proveedores de sistemas de IA que no son de alto riesgo a crear códigos de conducta que recojan la aplicación voluntaria de la totalidad o parte de los requisitos aplicables a los sistemas de IA de alto riesgo. También anima a los proveedores y, en su caso, a los responsables del despliegue de todos los sistemas de IA, ya sean o no de alto riesgo, y de los modelos de IA, a aplicar, con carácter voluntario, requisitos adicionales por encima de los obligatorios. Nos movemos en el campo de la responsabilidad social empresarial, de ir más allá del cumplimiento legal estricto. Pues bien, uno de los aspectos a los que se invita a reconocer como requisitos adicionales es la participación de las partes interesadas pertinentes en el diseño y el desarrollo de los sistemas de IA, lo que incluye a los sindicatos (también a las organizaciones empresariales).

Se prevé también que estos códigos se desarrollen de manera inclusiva para garantizar su efectividad, con la participación de las partes interesadas pertinentes, incluyendo entre otras, de nuevo, a los sindicatos.

Otra manifestación de esta sensibilidad hacia la dimensión colectiva, que estaba ya presente en el Reglamento General de Protección de Datos, es el reconocimiento del papel de los órganos de representación legal de los trabajadores en la empresa. Así, el artículo 26 impone que los responsables del despliegue de un sistema de IA de alto riesgo que sean empleadores informarán a los representantes de los trabajadores y a los trabajadores afectados de que estarán expuestos a la utilización de éste. Esta información se facilitará, antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo; y, cuando proceda, se hará con arreglo a las normas y procedimientos establecidos en el Derecho nacional y de la Unión y conforme a las prácticas en materia de información a los trabajadores y sus representantes. Se trata de un deber de información colectiva, lejos de la lógica de transparencia y consentimiento informado propios del Derecho de la protección de datos y de la IA; y que está en la línea del derecho a la información algorítmica ya previsto en el ordenamiento español desde la aprobación de la Ley Rider.

Las personas que trabajan van a aparecer en el Reglamento no sólo en su calidad de potenciales afectados por los mismos, sino también en la medida en que pueden utilizarlos como empleados de los sujetos verdaderamente responsables. Así, el artículo 4 indica que proveedores y responsables del despliegue de sistemas de IA deberán adoptar medidas para garantizar que, en la mayor medida posible, su personal y demás personas que se encarguen en su nombre del funcionamiento y la utilización de sistemas de IA tengan un nivel suficiente de alfabetización en materia de IA. Para ello se tendrán en cuenta una serie de parámetros como sus conocimientos técnicos, su experiencia, su educación y su formación. Lo interesante es que, de alguna manera, el Reglamento viene a introducir una nueva categoría, la de “persona trabajadora alfabetizado en IA” (utilizando la terminología española), que es diferente y más exigente que la de “persona alfabetizada”; que es “empleada” por un proveedor o responsable de sistema de IA, y que estará encargada de la utilización y funcionamiento de éste. En España estaríamos pensando inmediatamente en un sistema de acreditación de competencias, de formación profesional específica, de títulos habilitantes… La Unión no parece exigirlo; y de haberlo querido habría adoptado sin duda alguna iniciativa en este sentido, para hacer posible la libre circulación y el reconocimiento de competencias y titulaciones. Lo que sí es claro es que se presenta una verdadera exigencia para estas entidades, que por ello se convierten en empleadores especiales, con obligaciones específicas adicionales a las que les corresponderían en razón de su naturaleza y actividad.

Algo parecido encontramos en relación con las autoridades nacionales previstas en el artículo 70, tanto notificantes como de vigilancia del mercado. Se exige a los Estados miembros que garanticen que estas autoridades nacionales competentes dispongan de medios humanos adecuados, lo que supone, en concreto, suficiente personal cuyas competencias y conocimientos técnicos incluirán un conocimiento profundo de las tecnologías de IA, datos y computación de datos; la protección de los datos personales, la ciberseguridad, los riesgos para los derechos fundamentales, la salud y la seguridad, y conocimientos acerca de las normas y requisitos legales vigentes. De nuevo se identifican un perfil profesional especial, cuya presencia en las administraciones debe ser, por mandato del mismo Reglamento, permanente.

Por su parte, el artículo 26 impone a los responsables del despliegue de sistemas de IA de alto riesgo que encarguen la supervisión humana a personas físicas que tengan la competencia, la formación y la autoridad necesarias para desempeñar esta función.

Estos son sólo algunos de los aspectos laborales afectados por el Reglamento de IA.  Como ya dije al principio, estamos ante una norma de enorme importancia en la evolución tanto del Derecho Digital como del Derecho del Trabajo, que servirá para fortalecer a los ordenamientos internos de los Estados miembros para ordenar las numerosas facetas de esta realidad. Como bien señala el profesor Rojo Torrecilla, “la aprobación del Reglamento generará sin duda alguna, amplios debates sobre su contenido, y no escapará a los que se planteen por la doctrina laboralista, que ciertamente ya ha dedicado bastante atención en los últimos tiempos”.

Está por ver si se aprobará una ley española de IA, aun no siendo necesaria, como ya se hizo con el Reglamento General de Protección de Datos. La complejidad de la materia y la afectación de derechos fundamentales quizás lo recomendaría. Aunque, de hacerse así, se corre el riesgo de incidir en el fenómeno de descodificación del Derecho del Trabajo que lo está caracterizando en los últimos años, cuando cada vez más se están aprobando normas transversales que contienen disposiciones laborales, que quedan ubicadas fuera del Texto Refundido del Estatuto de los Trabajadores o de otras leyes laborales. Esto está siendo especialmente común en leyes de igualdad y de Derecho digital, que se convierten en “paralaborales” (expresión acuñada por el profesor Del Rey Guanter). La aprobación del nuevo Estatuto del Trabajo del Siglo XXI debe ser la oportunidad para proceder a una reunificación de estas disposiciones, y es en éste dónde deben regularse los derechos y salvaguardias relacionadas con la IA. Parece que así será, porque éste incluirá entre sus contenidos, según acordaron en su momento los partidos que forman la coalición gubernamental, adaptar la regulación del trabajo por cuenta ajena a la transición digital, que deberá incluir el gobierno de los algoritmos. De esto se trata, en realidad, cuando hablamos de la Ley de IA, de decidir quién y cómo los controlará para asegurar un desarrollo ético que beneficie a todos.

Nuestro papel, perfectamente identificado por el profesor Todolí Signes, debe ser ayudar a regular la digitalización para mejorar el empleo e incentivar la innovación. Siguiendo al profesor Mercader Uguina, debemos comenzar a “frecuentar el futuro que nos aguarda con el desarrollo de la IA y el análisis y reflexión sobre este Reglamento puede ser la senda por la que, necesariamente, debamos transitar los laboralistas”.

En cumplimiento de este compromiso que tenemos como iuslaboralistas hemos diseñado esta iniciativa interblogs. Las entradas previstas son las siguientes:

Tema Autor/autora Blog fecha
El reglamento europeo de IA y su afectación al ámbito laboral Miguel Rodríguez-Piñero https://grupo.us.es/iwpr/

https://grupo.us.es/iwpr/2024/04/08/el-reglamento-europeo-de-ia-y-su-afectacion-al-mundo-laboral/

Semana del 8-12 de abril
Reglamento europeo de IA y su coordinación con el Reglamento de protección de datos Adrián Todolí www.adriantodoli.com Semana del 15-19 de abril
Las prohibiciones del REIA como protección del neurosciente humano Ignasi Beltrán www.ignasibeltran.com Semana del 22-26 de abril
Los sistemas automatizados de reconocimiento de emociones Ana Belén Muñoz www.elforodelabos.es Semana 29-3 de mayo
Los usos de alto riesgo en el ámbito laboral de la IA y la autocertificación Jesús Mercader www.elforodelabos.es Semana del 6 al 10 de mayo
Las sanciones automáticas de la ITSS y el reglamento de IA Jose Maria Goerlich www.elforodelabos.es Semana del 13 al 17 de mayo
El reglamento de IA y la transparencia Daniel Pérez del Prado www.elforodelabos.es Semana del 20 al 24 de mayo
Las empresas de selección de personal y el reglamento de IA Antonio Fernández https://aflabor.wordpress.com/ Semana del 27 al 31 de mayo
Cláusura Eduardo Rojo www.eduardorojotorrecilla.es Primera semana de junio

 

 

Comparte en Redes Sociales:
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin
Print this page
Print

Deja un comentario

Top