LA SENTENCIA BOSCO: ¿UN ANTES Y UN DESPUES EN LAS RELACIONES LABORALES PUBLICAS Y PRIVADAS?

Joaquín Álvarez Palmero

Funcionario del Cuerpo de Gestión Procesal de la Administración de Justicia

Doctorando de Derecho del Trabajo y de la Seguridad Social

Universidad de Jaén

  1. Esta es la primera ocasión en que la Sala de lo Contencioso-Administrativo del Tribunal Supremo se adentra en el núcleo mismo de la tecnología. Todo indica, además, que no será la última, dado que el desarrollo de sistemas algorítmicos y de inteligencia artificial avanza de manera vertiginosa, mientras que las Administraciones Públicas destinan cantidades crecientes de recursos públicos a su diseño e implementación, amparándose en argumentos de eficiencia y sostenibilidad de los servicios públicos.

Se trata de un pronunciamiento judicial de especial transcendencia pues se constituye en una ostensible llamada de atención al poder público cuando desarrolla su labor mediante sistemas algorítmicos (o de inteligencia artificial cuando llegue el caso) que afectan a derechos de los ciudadanos (en mi opinión, también de los empleados públicos, que no pierden su carácter de ciudadanos, en los casos de gestión algorítmica de los recursos humanos públicos) y sobre la transparencia algorítmica y el control judicial de la Administración automatizada, que convierte a la jurisdicción contencioso-administrativo en protagonista debido a los numerosos conflictos que quedan por venir, pues algoritmos e inteligencia artificial serán sistemas cada vez más usados por la Administración en sus relaciones con los ciudadanos y en la gestión del empleo público. No es la única jurisdicción que deba resolver los conflictos tecnológicos y, de hecho, la jurisdicción social ya lleva ventaja al respecto, pero más pronto que tarde serán numerosos también en el resto de jurisdicciones. Desde luego, la STS 1119/2025 ha llegado al centro neurálgico del algoritmo BOSCO (su código fuente) aplicando la lógica humana y jurídica al convertirse el Alto Tribunal en máximo protector de los derechos de los ciudadanos frente a las maquinas en el ámbito administrativo. 

  • La irrupción de sistemas algorítmicos en la actividad administrativa ha introducido un nuevo eje de tensión entre eficiencia tecnológica y garantías jurídicas. En este sentido, la STS 1119/2025 —al afirmar que el acceso a la información pública se configura como un derecho constitucional— constituye un hito relevante en la conformación jurisprudencial de los límites constitucionales a la automatización de decisiones públicas. El Tribunal no solo reconoce el carácter vinculante del principio de transparencia algorítmica, sino que lo sitúa en el centro del debate sobre la legitimidad de la actuación administrativa automatizada, conectándolo con un concepto de mayor amplitud (“democracia digital o electrónica”) que atribuye a los poderes públicos la obligación de “explicar de forma comprensible el funcionamiento de los algoritmos que se emplean en la toma de decisiones que afectan a los ciudadanos para permitirles conocer, fiscalizar y participar en la gestión pública.” (F.J. 6º)

La opacidad de los sistemas algorítmicos no puede ser aceptada como un rasgo intrínseco e ineludible, sobre todo cuando la Administración Pública adopta tales sistemas para el ejercicio de potestades que inciden directa o indirectamente en derechos e intereses de la ciudadanía. Las decisiones automatizadas de la Administración no pueden operar como un espacio de debilitamiento de garantías. Por el contrario, la complejidad técnica de los algoritmos intensifica la necesidad de mecanismos reforzados de control, auditabilidad y explicabilidad que permitan verificar la conformidad de sus resultados con los principios de legalidad, objetividad y no discriminación.

La transformación digital de la Administración no puede legitimar retrocesos en materia de control democrático ni judicial, sino que exige un incremento cualitativo de la transparencia, concebida esta como un presupuesto indispensable para evitar que la automatización derive en una apariencia de control incompatible con el Estado de derecho. La trazabilidad de los procesos algorítmicos y la accesibilidad a sus criterios lógicos se configuran, así, como elementos imprescindibles para garantizar que la supervisión jurisdiccional siga siendo real y efectiva en el siglo XXI.

  • El problema jurídico central, en torno al planteamiento desde su inicio por Civio, aborda como se articulan las garantías clásicas del Derecho administrativo (legalidad, motivación y control judicial) frente a la opacidad de los sistemas automatizados y el alcance material del derecho de acceso a la información pública que, además se extienden cada vez a más ámbitos, como la Administración de Justicia que prevé también las “actuaciones automatizadas” en el art. 56 del Real Decreto-Ley 6/2023 y definidas como “… la actuación procesal producida por un sistema de información adecuadamente programado sin necesidad de intervención humana en cada caso singular”, en este caso dentro del proceso judicial.

Mientras las sentencias dictadas en instancias inferiores oponen la propiedad intelectual y la seguridad publica como límites infranqueables, el Tribunal Supremo somete dichos límites a una estricta prueba de proporcionalidad de manera que, frente a la propiedad intelectual argumenta que la protección de este derecho no puede anular el derecho fundamental al control del poder, y frente a la seguridad pública, reconociendo que todo acceso al código fuente entraña riesgos, estos son abstractos y genéricos pudiendo establecerse sistemas que mitiguen dichos riesgos afirmando, incluso, que la transparencia puede robustecer la seguridad, desmontando de esta forma el fraude de la “seguridad por oscuridad”. 

Sin embargo, como ya ha sucedido con la creación indiscriminada de entidades instrumentales (empresas públicas, agencias, fundaciones, etc) dando lugar a lo que Fritz Fleiner denomino “la huida del Derecho administrativo” mediante la laboralización de la Función Publica española y la creciente atribución de funciones administrativas a entidades de Derecho público o sociedades mercantiles cuyo personal carece de la condición de funcionario, los poderes públicos pueden planear “la huida del principio de transparencia algorítmica” mediante la contratación pública de empresas tecnológicas ajenas al sector público para la construcción y diseño de algoritmos que posteriormente utilice la propia Administración acogiendo, de esta forma, la protección jurídica que ofrece la propiedad intelectual cuando no es la Administración Publica la creadora del algoritmo pues, en caso contrario (cuando si lo es) los derechos exclusivos para el creador “se presentan notoriamente atenuadas cuando, como sucede aquí, el programa de ordenador ha sido creado por la propia Administración Pública, que es la titular de la propiedad intelectual…” y no actúa la racionalidad competitiva inherente al funcionamiento del mercado en el que “… se proyectan con especial significación los derechos de explotación de la propiedad intelectual”. De esta forma, la Administración evade la ponderación de intereses en juego en un eventual conflicto judicial, pues en esta operación jurídica el Tribunal Supremo “… otorga prevalencia al interés en el acceso al código fuente de la aplicación telemática BOSCO sobre el derecho a la propiedad intelectual de la Administración del Estado…”

El interés público es otro de los argumentos esgrimidos por la Sala otorgando a la Fundación Civio naturaleza de fiscalizador de la actuación de las Administraciones Publicas en línea con la jurisprudencia del Tribunal Europeo de Derechos Humanos (ej.  Sentencia del TEDH del 25 de junio de 2013, “Youth Initiative for Human Rights contra la República de Serbia” insistiendo en el importante papel de «social public watchdog» de las organizaciones no gubernamentales implicadas en asuntos de interés público). Es esencial la naturaleza jurídica y la función que desempeña la Fundación (“una organización independiente y sin ánimo de lucro, cuya actividad responde a la vigilancia del funcionamiento de las instituciones públicas y de la gestión de los recursos públicos que llevan a cabo, así como la promoción de la información de los ciudadanos acerca de su funcionamiento, para lo cual persigue fomentar su transparencia.”) lo que podría suponer que en pronunciamientos similares futuros la parte recurrente en casación no obtenga el mismo resultado casacional al tratarse de una persona individual u organización colectiva sin las características de Civio. 

Si bien las matizaciones y consideraciones incorporadas en la Sentencia 1119/2025 aconsejan actuar con prudencia a la hora de extender sus efectos a otros conflictos judiciales, no es menos cierto que su contenido ofrece una base sólida susceptible de ser extrapolada a supuestos que, aunque todavía no se han planteado, previsiblemente lo harán en un futuro inmediato. La transparencia algorítmica en la Administración Pública, en particular, el empleo de algoritmos en la gestión de los recursos humanos en el sector público, ya sea en los procesos de selección, en la promoción profesional, determinación de aspectos retributivos relacionados con el rendimiento o la evaluación del desempeño deberá ser objeto en los próximos años de aplicación ante decisiones automatizadas adoptadas por sistemas que no requieran intervención humana afectando a derechos fundamentales como el de igualdad y no discriminación. Como dice el Tribunal Supremo “… no cabe cuestionar la conveniencia de que las Administraciones públicas recurran a sistemas de toma de decisiones automatizadas para el eficaz desempeño de sus funciones o la adecuada prestación de servicios públicos.”, pero ello no significa dejar de exigir la necesaria transparencia de las decisiones tomadas por un algoritmo cuando afectan a derechos fundamentales de los empleados públicos como el de igualdad y no discriminación, el de intimidad, honor y protección de datos o principios como el mérito y la capacidad.

Las Administraciones Publicas disponen de ingentes cantidades de datos de sus empleados públicos y la implementación de metodologías de Big Data para la gestión y aprovechamiento de la información se erige como una de las expresiones más relevantes de dicha transformación digital y, la aplicación de técnicas de perfilado (elaboración de perfiles), ofrece una capacidad predictiva clave para adoptar decisiones en las políticas de recursos humanos, permitiendo una gestión más eficiente de procesos de provisión de puestos, diseños de itinerarios de carrera profesional o articular mecanismos de movilidad.

Dicho lo anterior, no existe en la función pública española, previsión normativa que contemple la aplicación de sistemas algorítmicos o de inteligencia artificial para la gestión del personal empleado público ni que garantice sus derechos digitales más allá de  “… la intimidad en el uso de dispositivos digitales puestos a su disposición y frente al uso de dispositivos de videovigilancia y geolocalización, así como a la desconexión digital en los términos establecidos en la legislación vigente en materia de protección de datos personales y garantía de los derechos digitales” (art. 14.j.bis) del TREBEP), e inexistencia de previsiones normativas que simulen al menos lo dispuesto en el art. 64.4.d) del Estatuto de los Trabajadores y, en todo caso, tendríamos que acudir a los arts. 87 y ss. de la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, por lo que urge la elaboración de un catálogo de derechos digitales de los empleados públicos que garanticen su protección frente a las tecnologías que actualmente se utilizan y las que muy próximamente se utilizaran.

  • La capacidad de la inteligencia artificial para procesar información en tiempo real la convierte en una herramienta de gran potencial para la evaluación del desempeño en el sector público. Sin embargo, su aplicación exige una reflexión ética rigurosa, ya que la automatización de procesos de medición y valoración debe garantizar el respeto a la dignidad de los empleados, la protección de sus datos personales y la prevención de sesgos algorítmicos. Además, nuestra legislación prevé, para este caso concreto, la garantía prevista en el art. 20.2 TREBEP “Los sistemas de evaluación del desempeño se adecuarán, en todo caso, a criterios de transparencia, objetividad, imparcialidad y no discriminación y se aplicarán sin menoscabo de los derechos de los empleados públicos.”, con lo que para los procesos de desempeño la STS 1119/2025 abre la puerta a eventuales decisiones judiciales de las jurisdicciones contencioso-administrativo (para el caso de funcionarios)  y laboral (para el personal contratado laboral) sobre la opacidad del algoritmo, la lógica aplicada, el derecho a una explicación y, en último caso, el acceso al código fuente del sistema utilizado por la Administración.

La actual regulación laboral sobre transparencia algorítmica la ofrece el art. 64.4.d) ET como derecho colectivo con lo que denomina “… parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles.” Pero, incluso la redacción de este artículo, por el que se establece la obligación del empleador a informar a la representación legal de los trabajadores (RLT) sobre “los parámetros, reglas e instrucciones” en los que se basa un algoritmo para asignar turnos, calcular incentivos, evaluar el desempeño o, más grave aún despedir, presenta fallas de interpretación y alcance normativo, de manera que ¿cómo puede la RLT verificar que los “parámetros, reglas e instrucciones” son los únicos que utiliza el sistema? ¿Cómo puede saber si no existen variables ocultas que introducen sesgos discriminatorios?, ¿Cómo saber que la ponderación de dichos parámetros es la declarada? 

Como ha señalado reiteradamente el Tribunal Constitucional (por todas STC 99/1984, de 11 de abril) “… el contrato de trabajo no puede considerarse como un título legitimador de recortes en el ejercicio de los derechos fundamentales que incumben al trabajador como ciudadano, que no pierde su condición de tal por insertarse en el ámbito de una organización privada.” El trabajador no se despoja de sus derechos fundamentales al firmar un contrato de trabajo. Algunas sentencias del Tribunal Constitucional admiten, aunque con cierta ambigüedad, una eficacia horizontal de los derechos fundamentales de la persona trabajadora (la doctrina Drittwirkung), pues derechos como los de no discriminación, dignidad de la persona, intimidad, la propia imagen, libertad de expresión, entre otros, actúan como límites al poder directivo del empresario privado. En este sentido, la STC 88/1985, de 19 de julio, por la que resuelve el despido de un trabajador por manifestar públicamente criticas contundentes contra la empresa, pone de manifiesto que “Ni las organizaciones empresariales forman mundos separados y estancos del resto de la sociedad ni la libertad de Empresa que establece el art. 38 del texto constitucional legitima el que quienes prestan servicios en aquéllas por cuenta y bajo la dependencia de sus titulares deban soportar despojos transitorios o limitaciones injustificadas de sus derechos fundamentales y libertades públicas, que tienen un valor central y nuclear en el sistema jurídico constitucional”. De hecho, la utilización creciente de las tecnologías en las relaciones laborales ha procurado una elevada distancia entre el poder empresarial de dirección y control de la actividad productiva, que se ejerce ahora a través de una lógica computacional cada vez más opaca para el trabajador, que se ve sometido a toma de decisiones algorítmicas que afectan a su carrera profesional y su soporte económico sin conocimiento de los criterios, datos, variables y razonamiento que la fundamente de forma que nos conduce a lo que el profesor Adrián Todolí denomina “asimetría sobre las propias reglas del juego interno de la empresa”.

El acceso al código fuente en la empresa se opone al secreto industrial o la propiedad intelectual, aunque si éste ultimo no puede ser absoluto y debe operar la ponderación, en palabras del Alto Tribunal, tampoco puede serlo en el ámbito laboral cuando se vulneran derechos fundamentales del trabajador. Ahora bien, el código fuente (el como del sistema) es el texto completo escrito en un lenguaje de programación que describe exactamente como se ejecuta un algoritmo en todos sus pasos, mientras que “parámetros, reglas e instrucciones” (el que y el porqué) formulan solo el conjunto de criterios, factores y pasos generales que sigue un algoritmo para tomar decisiones. En definitiva, los parámetros suelen ser datos o variables que el sistema considera para tomar una decisión, las reglas indican las condiciones o normas que determinan el resultado y las instrucciones especifican que acciones se realizan en cada paso. Acceder al código fuente equivale a pedir el manual completo de funcionamiento con todas sus piezas y ensamblaje del algoritmo, mientras que acceder a parámetros, reglas e instrucciones se corresponde solo con el esquema general y los factores de decisión del sistema, de tal forma que si una empresa utiliza un sistema algorítmico para calcular las bonificaciones anuales de sus empleados, el departamento de RR.HH. define los parámetros, reglas e instrucciones (el que y el porqué) de manera que un parámetro puede ser el rendimiento individual del empleado (un valor del 1 al 10), una regla podría ser que solo los empleados con rendimiento mayor que 7 califican para el bonus, y una instrucción general podría ser que el bonus es el 10\% del salario base. Este conjunto de criterios generales es lo que la empresa comunicaría a la RLT. Sin embargo, el código fuente (el como del sistema) sería el texto de programación detallado que realmente ejecuta el cálculo, incluyendo la fórmula exacta que pondera el rendimiento con la antigüedad, los pasos de validación para la elegibilidad y cómo se manejan los errores en el sistema.

  • La opacidad algorítmica produce una preocupante inseguridad real de indefensión, discriminación y arbitrariedad de manera que ¿cómo puede un trabajador impugnar un despido por baja productividad si el estándar de rendimiento es una métrica dinámica calculada por una “caja negra”.? Se ofrecen por la doctrina alternativas que “mitiguen los riesgos” en el acceso al código fuente de la RLT, de forma que debe realizarse con las máximas garantías para salvaguardar el derecho a la propiedad intelectual, o bien articularse un sistema de común acuerdo para la auditoria del algoritmo, o que sea la Inspección de Trabajo la que realice las auditorias algorítmicas.

La Sentencia BOSCO no se limitará a constituir solo un precedente jurisprudencial para futuros procesos judiciales relacionados con la adopción de decisiones automatizadas por parte de la Administración Pública, sino que abre un debate jurídico-doctrinal en otros ámbitos del Derecho sobre su extensión y aplicación, y alerta al legislador sobre la necesidad de regular las zonas grises de desprotección de los trabajadores, especialmente ante la inminente aplicación de estas tecnologías en las relaciones laborales tanto en el sector público como en el privado.

LA NUEVA DIRECTIVA 2024/2831: HACIA LA MEJORA DE LAS CONDICIONES LABORALES DE MILLONES DE PERSONAS QUE TRABAJAN PARA PLATAFORMAS DIGITALES EN LA UE.

Francisco Manuel Extremera Méndez

Investigador/Doctorando

Área de Derecho del Trabajo y de la Seguridad Social

Universidad de Jaén

El pasado 11 de noviembre se publicó en el DOUE el texto definitivo de la Directiva (UE) 2024/2831 del Parlamento Europeo y del Consejo, de 23 de octubre de 2024, relativa a la mejora de las condiciones laborales en el trabajo en plataformas. Con este nuevo marco jurídico comunitario, se persigue dotar a las personas que desarrollan su actividad en plataformas de las salvaguardas adecuadas para la tutela de sus derechos. La novedosa regulación aborda muchos de los desafíos que afectan a esta modalidad de trabajo, tales como la situación laboral, gestión algorítmica, transparencia, y negociación colectiva. 

Con la adopción de la Directiva 2024/2831, la UE persigue de forma simultánea un doble objetivo identificado con “mejorar las condiciones laborales y la protección de los datos personales en el ámbito del trabajo en plataformas” (artículo 1.1). Además, la norma se caracteriza por su amplio ámbito de aplicación, que aglutina a “todas las personas que realizan trabajo en plataformas” (artículo 1.2), trascendiendo así el nuevo marco europeo más allá de las medidas adoptadas en nuestro ordenamiento laboral, limitadas a las plataformas de reparto.

A lo largo de la presente entrada, se exponen de forma sucinta algunas de las novedades más relevantes que la nueva Directiva 2024/2831 trae consigo en relación al trabajo desarrollado en plataformas.

Correcta determinación de la situación laboral: presunción de laboralidad en plataformasEl capítulo II, dedicado a la “determinación correcta de la situación laboral” constituye una parte esencial de la Directiva, cuyo objetivo se identifica con garantizar la adecuada clasificación de la situación laboral de las personas que desarrollan su actividad en plataformas, evitando así el uso abusivo de la falsa autonomía. A tal fin contempla: la implementación de procedimientos “adecuados y efectivos” (artículo 4); la presunción de que la relación entre la persona trabajadora y la plataforma digital “es una relación laboral cuando se constaten indicios de control y dirección” (artículo 5); así como medidas de apoyo “para velar por la aplicación efectiva y el cumplimiento de la presunción legal” (artículo 6).

La presunción de laboralidad se erige como elemento central del Capítulo II. De acuerdo con su tenor literal:“se presumirá que, desde el punto de vista jurídico, la relación contractual entre una plataforma digital de trabajo y una persona que realiza trabajo en plataformas a través de dicha plataforma es una relación laboral cuando se constaten indicios de control y dirección” (artículo 5.1). Un planteamiento alejado del mecanismo previsto por la Comisión es su propuesta inicial, partidaria de la fijación de indicios de laboralidad por la propia norma europea. Por tanto, serán los EEMM quienes determinen cuándo es posible considerar que se han constatado hechos indicativos de control y dirección suficientes para activar la presunción legal, de acuerdo con “la legislación nacional, los convenios colectivos o las prácticas vigentes en los Estados miembros y teniendo en cuenta la jurisprudencia del Tribunal de Justicia” (artículo 5.1).

La Ley 12/2021, de 28 de septiembre, conocida como “Ley Ryder”, ya introdujo en nuestro ordenamiento nacional una presunción de laboralidad, a través de la cual se perseguía incluir la prestación de servicios en plataformas digitales de reparto dentro del ET, al objeto de acabar con la precariedad que caracteriza esta modalidad de trabajo. En este sentido, la disposición adicional 23ª del ET “presume incluida en el ámbito de esta ley la actividad de las personas que presten servicios retribuidos consistentes en el reparto o distribución de cualquier producto de consumo o mercancía, por parte de empleadoras que ejercen las facultades empresariales de organización, dirección y control de forma directa, indirecta o implícita, mediante la gestión algorítmica del servicio o de las condiciones de trabajo, a través de una plataforma digital”. Sin embargo, el alcance de esta presunción resulta ser excesivamente limitado al quedar circunscrito a plataformas digitales de reparto. Ello la convierte en una medida francamente insuficiente en la lucha contra el uso fraudulento de personas autónomas en el trabajo en plataformas, cuyo alcance es considerablemente superior, al extenderse a una pluralidad creciente de sectores

Sistema de garantías frente al uso de sistemas algorítmicos e IA en el trabajo en plataformas. La utilización de algoritmos también despliega sus efectos en el terreno laboral mediante la implementación de sistemas algorítmicos y de inteligencia artificial (IA) en los distintos aspectos de la gestión del trabajo. En el trabajo desarrollado en plataformas, la “gestión laboral algorítmica” determina en buena medida la condiciones laborales de las personas trabajadoras, así como el modo en que éstas prestan sus servicios. Por este motivo, en materia de gestión algorítmica, la Directiva 2024/2831 incorpora un amplio sistema de garantías que refuerzan la posición de las personas que desarrollan su actividad en plataformas frente al uso de sistemas automatizados de supervisión y toma de decisiones.

La Directiva 2024/2831 otorga un papel destacado al tratamiento por las plataformas de los datos personales pertenecientes a las personas que desarrollan en ellas su actividad. Exigencias que se traducen en “limitaciones al tratamiento de datos personales por sistemas automatizados de supervisión y de toma de decisiones”, extendidas también a aquellos que las respalden (artículo 7). Por su parte, la norma incorpora la necesaria evaluación de impacto del uso de tales sistemas “en lo que respecta a la protección de los datos personales de las personas que realizan trabajo en plataformas” (artículo 8.1). En esta evaluación, se recabará “la opinión de las personas que realizan trabajo en plataformas y de sus representantes” y, una vez finalizada será transmitida a éstos (artículo 8.1). Asimismo, se traslada al trabajo en plataformas las exigencias de transparencia contenidas en el RGPD (artículo 9). En este sentido, la norma contempla la obligación de informar acerca de aspectos como: “las categorías de datos” tratados por sistemas automatizados de supervisión o toma de decisiones; sus “destinatarios o categorías de destinatarios”“toda transmisión o transferencia de dichos datos personales”; e incluso“la forma en que los datos personales (…) influyen en las decisiones”. 

En materia de transparencia, la norma impone la obligación de informar sobre determinados aspectos relacionados con el uso de tales sistemas (artículo 9.1.). En concreto, se deberá informar sobre: su utilización o próxima introducción; “los tipos de decisiones respaldadas o adoptadas”; las acciones a través de las cuales los datos de rendimiento son “controlados, supervisados o evaluados”; los parámetros analizados y su peso “en la toma de decisiones automatizada”o incluso “el objetivo del sistema de supervisión y el modo en que el sistema debe lograr dicho objetivo”. Asimismo, se deberán trasladar los motivos de las decisiones “de restringir, suspender o cancelar la cuenta, de denegarle el pago por el trabajo realizado”, así como de todas aquellas que versen “sobre su situación contractual” o tengan “efectos equivalentes o perjudiciales”. La información se trasladará a los representantes de las personas trabajadoras “antes de utilizar dichos sistemas” (artículo 9.3). A título individual éstas deberán ser informadas sobre los “cambios que afecten a las condiciones laborales, la organización del trabajo o la supervisión de la ejecución del trabajo”, como máximo el primer día hábil previo a su introducción (artículo 9.4). Asimismo, la norma extiende esta garantía de información “a las personas inmersas en un procedimiento de contratación o selección”, quienes deberán ser informadas del uso de sistemas algorítmicos con carácter previo (artículo 9.5).

Por su parte, la Directiva 2024/2831 incorpora el deber de garantizar la información y consulta a los representantes de las personas trabajadoras en plataformas respecto de las decisiones que impliquen “la introducción de sistemas automatizados de supervisión o de toma de decisiones o a cambios sustanciales en el uso de dichos sistemas” (artículo 13.2). En caso de no tener representantes, las plataformas deberán informar directamente a las personas trabajadoras sobre tales cuestiones (artículo 14).

La Directiva 2024/2831 construye en torno a la garantía de intervención humana un régimen de rendición de cuentas, en virtud del cual las plataformas quedan obligadas a revisar y explicar las decisiones adoptadas por sistemas automatizados. En este sentido, prevé la evaluación de los efectos de todas las decisiones adoptadas o respaldadas por estos sistemas (artículo 10.1). Las plataformas estarán asimismo obligadas a adoptar las “medidas necesarias” en caso de que las decisiones automatizadas supongan un “riesgo elevado de discriminación en el trabajo” o vulneren “los derechos de una persona que realice trabajo en plataformas”, que pueden llegar a suponer “la modificación del sistema automatizado”, o la “interrupción de su uso” (artículo 10.3). Por su parte, la decisión de restringir, suspender o cancelar la relación contractual o cuenta de las personas que realizan trabajo en plataformas, o cualquier decisión de la que derive un perjuicio equivalente “será adoptada por un ser humano” (artículo 10.5). 

A su vez, la norma prevé el derecho a “obtener una explicación de la plataforma digital de trabajo, sin demora indebida” sobre cualquier decisión adoptada por sistemas automatizados (artículo 11.1), nombrando a tal efecto a una “persona de contacto” a la que las personas trabajadoras puedan dirigirse. Por su parte, la plataforma deberá informar motu propriosobre los motivos de toda decisión respaldada o adoptada por un sistema automatizado de la que deriven efectos perjudiciales para la persona trabajadora o afecte a aspectos esenciales del empleo (artículo 11.1).  Se reconoce además el derecho “a solicitar a la plataforma digital de trabajo que revise” cualquier decisión adoptada por un sistema automatizado (artículo 11.2), en caso de que la explicación no sea satisfactoria o se hayan vulnerado los derechos de la persona trabajadora. En ese caso, la plataforma deberá rectificar su decisión, u otorgar una “indemnización adecuada por los daños sufridos” si esta no fuera posible, adoptando además las medidas oportunas (artículo 11.3). 

En materia de seguridad y salud, la Directiva señala la imposibilidad de implementar sistemas automatizados “de manera que se ejerza una presión indebida sobre los trabajadores de plataformas”, comprometiendo así su seguridad y salud física y mental (artículo 12.3). De este modo, las plataformas quedan obligadas a: evaluar los riesgos de la utilización de sistemas automatizados respecto a la “seguridad y su salud, en particular los posibles riesgos psicosociales, ergonómicos y de accidente laboral”; evaluar “si las salvaguardias de dichos sistemas son adecuadas para los riesgos detectados”; e introducir “medidas preventivas y de protección adecuadas” (artículo 12.1).

A modo de conclusión: al respecto del tiempo de trabajo y la futura transposición de la norma. La reciente adopción de la Directiva 2024/2831 constituye un importante avance en la mejora de las condiciones laborales de las personas que realizan su actividad en plataformas. Sin embargo, la norma desatiende algunas cuestiones de gran trascendencia en esta modalidad de prestación de servicios, como la responsabilidad en la subcontratación de las plataformas o el tiempo de trabajo. Esta última cuestión adquiere especial importancia debido a la práctica empresarial de considerar tiempo de descanso, los períodos de conexión a la plataforma sin prestación efectiva de servicios y, por tanto, no retribuirlos ni sujetarlos a los límites de jornada. Ello conduce a las personas trabajadoras en plataformas a una situación de disponibilidad constante, a la espera de futuros encargos asignados por el “jefe algorítmico”, que las empuja a alargar considerablemente su jornada para obtener unos ingresos decentes, con el consiguiente impacto en materia de riesgos psicosociales, como el estrés o el agotamiento profesional.

Sobre ésta última cuestión ya tuvo ocasión de pronunciarse el profesor Molina Navarrete en este blog, con motivo de la Sentencia de la Corte Suprema de Reino Unido de 19 de febrero de 2021, en virtud de la cual: “…todo el tiempo que pasa un conductor trabajando bajo un contrato…con Uber…, incluido el tiempo que pasa «en servicio» conectado a la aplicación…disponible para aceptar una solicitud de viaje es «tiempo de trabajo»…” (Apartado 134). Una línea jurisprudencial que ha sido posteriormente secundada por los órganos jurisdiccionales nacionales. Buen ejemplo de ello es la SJSO de Madrid 7107/2020 de 11 de diciembre, según la cual: “…es tiempo de trabajo efectivo todo aquél periodo durante el que el trabajador se encuentra conectado a la aplicación, pues durante él no puede disponer de su tiempo, debiendo permanecer en el lugar de trabajo dispuesto a atender el servicio que se le asigne…” (fund. 2º). De igual modo, la STSJ de Madrid 438/2023 de 25 de enero, frente a la reclamación del pago de horas extraordinarias por un conductor de la plataforma “Cabify”, declara que ha de abonarse“el tiempo que en todo caso invirtió para la empresa”, incluidos los periodos de espera (fund. 4º).

Publicada la nueva Directiva 2024/2831, corresponde al poder legislativo de los distintos EEMM proceder a su adecuada transposición, en cualquier caso antes del 2 de diciembre de 2026 (artículo 29). Una transposición que adquiere especial trascendencia para la consecución del empleo decente en el marco de una nueva realidad digitalizada en la que resulta necesario dotar a las personas trabajadoras de las garantías necesarias para la tutela de sus derechos. En el caso del ordenamiento laboral español, la incorporación de las novedades de la norma europea debería traer consigo actuaciones legislativas como:

  • La ampliación del ámbito de aplicación de la actual presunción de laboralidad contenida en la disposición adicional 23ª del ET, centrada exclusivamente en aquellas plataformas dedicadas al reparto.
  • La incorporación al ET de las distintas garantías que incorpora la Directiva 2024/2831, en materia de transparencia y explicabilidad, así como vigilancia y supervisión humana de los sistemas automatizados de supervisión y toma de decisiones.
  • El refuerzo de la protección de datos de las personas trabajadoras frente a su tratamiento por sistemas automatizados en el ámbito laboral, a través de la inclusión de un nuevo derecho en este sentido al catálogo de derechos digitales del Capítulo X de la LOPDGDD.

En cualquier caso, la transposición debería alcanzar un enfoque aperturista, ajeno a limitar las novedades del recién aprobado marco europeo exclusivamente a las plataformas digitales, sino al conjunto de empresas que opten por la introducción de algoritmos o sistemas de IA en la gestión de personal. De igual modo, esta amplitud debe traducirse en la necesaria doble dimensión de la transposición (trabajo asalariado y autónomo), a través de la cual se incorporarían de igual modo las garantías en materia de gestión algorítmica al Estatuto del Trabajo Autónomo (LETA).