
Joaquín Álvarez Palmero
Funcionario del Cuerpo de Gestión Procesal de la Administración de Justicia
Doctorando de Derecho del Trabajo y de la Seguridad Social
Universidad de Jaén
- Esta es la primera ocasión en que la Sala de lo Contencioso-Administrativo del Tribunal Supremo se adentra en el núcleo mismo de la tecnología. Todo indica, además, que no será la última, dado que el desarrollo de sistemas algorítmicos y de inteligencia artificial avanza de manera vertiginosa, mientras que las Administraciones Públicas destinan cantidades crecientes de recursos públicos a su diseño e implementación, amparándose en argumentos de eficiencia y sostenibilidad de los servicios públicos.
Se trata de un pronunciamiento judicial de especial transcendencia pues se constituye en una ostensible llamada de atención al poder público cuando desarrolla su labor mediante sistemas algorítmicos (o de inteligencia artificial cuando llegue el caso) que afectan a derechos de los ciudadanos (en mi opinión, también de los empleados públicos, que no pierden su carácter de ciudadanos, en los casos de gestión algorítmica de los recursos humanos públicos) y sobre la transparencia algorítmica y el control judicial de la Administración automatizada, que convierte a la jurisdicción contencioso-administrativo en protagonista debido a los numerosos conflictos que quedan por venir, pues algoritmos e inteligencia artificial serán sistemas cada vez más usados por la Administración en sus relaciones con los ciudadanos y en la gestión del empleo público. No es la única jurisdicción que deba resolver los conflictos tecnológicos y, de hecho, la jurisdicción social ya lleva ventaja al respecto, pero más pronto que tarde serán numerosos también en el resto de jurisdicciones. Desde luego, la STS 1119/2025 ha llegado al centro neurálgico del algoritmo BOSCO (su código fuente) aplicando la lógica humana y jurídica al convertirse el Alto Tribunal en máximo protector de los derechos de los ciudadanos frente a las maquinas en el ámbito administrativo.
- La irrupción de sistemas algorítmicos en la actividad administrativa ha introducido un nuevo eje de tensión entre eficiencia tecnológica y garantías jurídicas. En este sentido, la STS 1119/2025 —al afirmar que el acceso a la información pública se configura como un derecho constitucional— constituye un hito relevante en la conformación jurisprudencial de los límites constitucionales a la automatización de decisiones públicas. El Tribunal no solo reconoce el carácter vinculante del principio de transparencia algorítmica, sino que lo sitúa en el centro del debate sobre la legitimidad de la actuación administrativa automatizada, conectándolo con un concepto de mayor amplitud (“democracia digital o electrónica”) que atribuye a los poderes públicos la obligación de “explicar de forma comprensible el funcionamiento de los algoritmos que se emplean en la toma de decisiones que afectan a los ciudadanos para permitirles conocer, fiscalizar y participar en la gestión pública.” (F.J. 6º)
La opacidad de los sistemas algorítmicos no puede ser aceptada como un rasgo intrínseco e ineludible, sobre todo cuando la Administración Pública adopta tales sistemas para el ejercicio de potestades que inciden directa o indirectamente en derechos e intereses de la ciudadanía. Las decisiones automatizadas de la Administración no pueden operar como un espacio de debilitamiento de garantías. Por el contrario, la complejidad técnica de los algoritmos intensifica la necesidad de mecanismos reforzados de control, auditabilidad y explicabilidad que permitan verificar la conformidad de sus resultados con los principios de legalidad, objetividad y no discriminación.
La transformación digital de la Administración no puede legitimar retrocesos en materia de control democrático ni judicial, sino que exige un incremento cualitativo de la transparencia, concebida esta como un presupuesto indispensable para evitar que la automatización derive en una apariencia de control incompatible con el Estado de derecho. La trazabilidad de los procesos algorítmicos y la accesibilidad a sus criterios lógicos se configuran, así, como elementos imprescindibles para garantizar que la supervisión jurisdiccional siga siendo real y efectiva en el siglo XXI.
- El problema jurídico central, en torno al planteamiento desde su inicio por Civio, aborda como se articulan las garantías clásicas del Derecho administrativo (legalidad, motivación y control judicial) frente a la opacidad de los sistemas automatizados y el alcance material del derecho de acceso a la información pública que, además se extienden cada vez a más ámbitos, como la Administración de Justicia que prevé también las “actuaciones automatizadas” en el art. 56 del Real Decreto-Ley 6/2023 y definidas como “… la actuación procesal producida por un sistema de información adecuadamente programado sin necesidad de intervención humana en cada caso singular”, en este caso dentro del proceso judicial.
Mientras las sentencias dictadas en instancias inferiores oponen la propiedad intelectual y la seguridad publica como límites infranqueables, el Tribunal Supremo somete dichos límites a una estricta prueba de proporcionalidad de manera que, frente a la propiedad intelectual argumenta que la protección de este derecho no puede anular el derecho fundamental al control del poder, y frente a la seguridad pública, reconociendo que todo acceso al código fuente entraña riesgos, estos son abstractos y genéricos pudiendo establecerse sistemas que mitiguen dichos riesgos afirmando, incluso, que la transparencia puede robustecer la seguridad, desmontando de esta forma el fraude de la “seguridad por oscuridad”.
Sin embargo, como ya ha sucedido con la creación indiscriminada de entidades instrumentales (empresas públicas, agencias, fundaciones, etc) dando lugar a lo que Fritz Fleiner denomino “la huida del Derecho administrativo” mediante la laboralización de la Función Publica española y la creciente atribución de funciones administrativas a entidades de Derecho público o sociedades mercantiles cuyo personal carece de la condición de funcionario, los poderes públicos pueden planear “la huida del principio de transparencia algorítmica” mediante la contratación pública de empresas tecnológicas ajenas al sector público para la construcción y diseño de algoritmos que posteriormente utilice la propia Administración acogiendo, de esta forma, la protección jurídica que ofrece la propiedad intelectual cuando no es la Administración Publica la creadora del algoritmo pues, en caso contrario (cuando si lo es) los derechos exclusivos para el creador “se presentan notoriamente atenuadas cuando, como sucede aquí, el programa de ordenador ha sido creado por la propia Administración Pública, que es la titular de la propiedad intelectual…” y no actúa la racionalidad competitiva inherente al funcionamiento del mercado en el que “… se proyectan con especial significación los derechos de explotación de la propiedad intelectual”. De esta forma, la Administración evade la ponderación de intereses en juego en un eventual conflicto judicial, pues en esta operación jurídica el Tribunal Supremo “… otorga prevalencia al interés en el acceso al código fuente de la aplicación telemática BOSCO sobre el derecho a la propiedad intelectual de la Administración del Estado…”
El interés público es otro de los argumentos esgrimidos por la Sala otorgando a la Fundación Civio naturaleza de fiscalizador de la actuación de las Administraciones Publicas en línea con la jurisprudencia del Tribunal Europeo de Derechos Humanos (ej. Sentencia del TEDH del 25 de junio de 2013, “Youth Initiative for Human Rights contra la República de Serbia” insistiendo en el importante papel de «social public watchdog» de las organizaciones no gubernamentales implicadas en asuntos de interés público). Es esencial la naturaleza jurídica y la función que desempeña la Fundación (“una organización independiente y sin ánimo de lucro, cuya actividad responde a la vigilancia del funcionamiento de las instituciones públicas y de la gestión de los recursos públicos que llevan a cabo, así como la promoción de la información de los ciudadanos acerca de su funcionamiento, para lo cual persigue fomentar su transparencia.”) lo que podría suponer que en pronunciamientos similares futuros la parte recurrente en casación no obtenga el mismo resultado casacional al tratarse de una persona individual u organización colectiva sin las características de Civio.
Si bien las matizaciones y consideraciones incorporadas en la Sentencia 1119/2025 aconsejan actuar con prudencia a la hora de extender sus efectos a otros conflictos judiciales, no es menos cierto que su contenido ofrece una base sólida susceptible de ser extrapolada a supuestos que, aunque todavía no se han planteado, previsiblemente lo harán en un futuro inmediato. La transparencia algorítmica en la Administración Pública, en particular, el empleo de algoritmos en la gestión de los recursos humanos en el sector público, ya sea en los procesos de selección, en la promoción profesional, determinación de aspectos retributivos relacionados con el rendimiento o la evaluación del desempeño deberá ser objeto en los próximos años de aplicación ante decisiones automatizadas adoptadas por sistemas que no requieran intervención humana afectando a derechos fundamentales como el de igualdad y no discriminación. Como dice el Tribunal Supremo “… no cabe cuestionar la conveniencia de que las Administraciones públicas recurran a sistemas de toma de decisiones automatizadas para el eficaz desempeño de sus funciones o la adecuada prestación de servicios públicos.”, pero ello no significa dejar de exigir la necesaria transparencia de las decisiones tomadas por un algoritmo cuando afectan a derechos fundamentales de los empleados públicos como el de igualdad y no discriminación, el de intimidad, honor y protección de datos o principios como el mérito y la capacidad.
Las Administraciones Publicas disponen de ingentes cantidades de datos de sus empleados públicos y la implementación de metodologías de Big Data para la gestión y aprovechamiento de la información se erige como una de las expresiones más relevantes de dicha transformación digital y, la aplicación de técnicas de perfilado (elaboración de perfiles), ofrece una capacidad predictiva clave para adoptar decisiones en las políticas de recursos humanos, permitiendo una gestión más eficiente de procesos de provisión de puestos, diseños de itinerarios de carrera profesional o articular mecanismos de movilidad.
Dicho lo anterior, no existe en la función pública española, previsión normativa que contemple la aplicación de sistemas algorítmicos o de inteligencia artificial para la gestión del personal empleado público ni que garantice sus derechos digitales más allá de “… la intimidad en el uso de dispositivos digitales puestos a su disposición y frente al uso de dispositivos de videovigilancia y geolocalización, así como a la desconexión digital en los términos establecidos en la legislación vigente en materia de protección de datos personales y garantía de los derechos digitales” (art. 14.j.bis) del TREBEP), e inexistencia de previsiones normativas que simulen al menos lo dispuesto en el art. 64.4.d) del Estatuto de los Trabajadores y, en todo caso, tendríamos que acudir a los arts. 87 y ss. de la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, por lo que urge la elaboración de un catálogo de derechos digitales de los empleados públicos que garanticen su protección frente a las tecnologías que actualmente se utilizan y las que muy próximamente se utilizaran.
- La capacidad de la inteligencia artificial para procesar información en tiempo real la convierte en una herramienta de gran potencial para la evaluación del desempeño en el sector público. Sin embargo, su aplicación exige una reflexión ética rigurosa, ya que la automatización de procesos de medición y valoración debe garantizar el respeto a la dignidad de los empleados, la protección de sus datos personales y la prevención de sesgos algorítmicos. Además, nuestra legislación prevé, para este caso concreto, la garantía prevista en el art. 20.2 TREBEP “Los sistemas de evaluación del desempeño se adecuarán, en todo caso, a criterios de transparencia, objetividad, imparcialidad y no discriminación y se aplicarán sin menoscabo de los derechos de los empleados públicos.”, con lo que para los procesos de desempeño la STS 1119/2025 abre la puerta a eventuales decisiones judiciales de las jurisdicciones contencioso-administrativo (para el caso de funcionarios) y laboral (para el personal contratado laboral) sobre la opacidad del algoritmo, la lógica aplicada, el derecho a una explicación y, en último caso, el acceso al código fuente del sistema utilizado por la Administración.
La actual regulación laboral sobre transparencia algorítmica la ofrece el art. 64.4.d) ET como derecho colectivo con lo que denomina “… parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles.” Pero, incluso la redacción de este artículo, por el que se establece la obligación del empleador a informar a la representación legal de los trabajadores (RLT) sobre “los parámetros, reglas e instrucciones” en los que se basa un algoritmo para asignar turnos, calcular incentivos, evaluar el desempeño o, más grave aún despedir, presenta fallas de interpretación y alcance normativo, de manera que ¿cómo puede la RLT verificar que los “parámetros, reglas e instrucciones” son los únicos que utiliza el sistema? ¿Cómo puede saber si no existen variables ocultas que introducen sesgos discriminatorios?, ¿Cómo saber que la ponderación de dichos parámetros es la declarada?
Como ha señalado reiteradamente el Tribunal Constitucional (por todas STC 99/1984, de 11 de abril) “… el contrato de trabajo no puede considerarse como un título legitimador de recortes en el ejercicio de los derechos fundamentales que incumben al trabajador como ciudadano, que no pierde su condición de tal por insertarse en el ámbito de una organización privada.” El trabajador no se despoja de sus derechos fundamentales al firmar un contrato de trabajo. Algunas sentencias del Tribunal Constitucional admiten, aunque con cierta ambigüedad, una eficacia horizontal de los derechos fundamentales de la persona trabajadora (la doctrina Drittwirkung), pues derechos como los de no discriminación, dignidad de la persona, intimidad, la propia imagen, libertad de expresión, entre otros, actúan como límites al poder directivo del empresario privado. En este sentido, la STC 88/1985, de 19 de julio, por la que resuelve el despido de un trabajador por manifestar públicamente criticas contundentes contra la empresa, pone de manifiesto que “Ni las organizaciones empresariales forman mundos separados y estancos del resto de la sociedad ni la libertad de Empresa que establece el art. 38 del texto constitucional legitima el que quienes prestan servicios en aquéllas por cuenta y bajo la dependencia de sus titulares deban soportar despojos transitorios o limitaciones injustificadas de sus derechos fundamentales y libertades públicas, que tienen un valor central y nuclear en el sistema jurídico constitucional”. De hecho, la utilización creciente de las tecnologías en las relaciones laborales ha procurado una elevada distancia entre el poder empresarial de dirección y control de la actividad productiva, que se ejerce ahora a través de una lógica computacional cada vez más opaca para el trabajador, que se ve sometido a toma de decisiones algorítmicas que afectan a su carrera profesional y su soporte económico sin conocimiento de los criterios, datos, variables y razonamiento que la fundamente de forma que nos conduce a lo que el profesor Adrián Todolí denomina “asimetría sobre las propias reglas del juego interno de la empresa”.
El acceso al código fuente en la empresa se opone al secreto industrial o la propiedad intelectual, aunque si éste ultimo no puede ser absoluto y debe operar la ponderación, en palabras del Alto Tribunal, tampoco puede serlo en el ámbito laboral cuando se vulneran derechos fundamentales del trabajador. Ahora bien, el código fuente (el como del sistema) es el texto completo escrito en un lenguaje de programación que describe exactamente como se ejecuta un algoritmo en todos sus pasos, mientras que “parámetros, reglas e instrucciones” (el que y el porqué) formulan solo el conjunto de criterios, factores y pasos generales que sigue un algoritmo para tomar decisiones. En definitiva, los parámetros suelen ser datos o variables que el sistema considera para tomar una decisión, las reglas indican las condiciones o normas que determinan el resultado y las instrucciones especifican que acciones se realizan en cada paso. Acceder al código fuente equivale a pedir el manual completo de funcionamiento con todas sus piezas y ensamblaje del algoritmo, mientras que acceder a parámetros, reglas e instrucciones se corresponde solo con el esquema general y los factores de decisión del sistema, de tal forma que si una empresa utiliza un sistema algorítmico para calcular las bonificaciones anuales de sus empleados, el departamento de RR.HH. define los parámetros, reglas e instrucciones (el que y el porqué) de manera que un parámetro puede ser el rendimiento individual del empleado (un valor del 1 al 10), una regla podría ser que solo los empleados con rendimiento mayor que 7 califican para el bonus, y una instrucción general podría ser que el bonus es el 10\% del salario base. Este conjunto de criterios generales es lo que la empresa comunicaría a la RLT. Sin embargo, el código fuente (el como del sistema) sería el texto de programación detallado que realmente ejecuta el cálculo, incluyendo la fórmula exacta que pondera el rendimiento con la antigüedad, los pasos de validación para la elegibilidad y cómo se manejan los errores en el sistema.
- La opacidad algorítmica produce una preocupante inseguridad real de indefensión, discriminación y arbitrariedad de manera que ¿cómo puede un trabajador impugnar un despido por baja productividad si el estándar de rendimiento es una métrica dinámica calculada por una “caja negra”.? Se ofrecen por la doctrina alternativas que “mitiguen los riesgos” en el acceso al código fuente de la RLT, de forma que debe realizarse con las máximas garantías para salvaguardar el derecho a la propiedad intelectual, o bien articularse un sistema de común acuerdo para la auditoria del algoritmo, o que sea la Inspección de Trabajo la que realice las auditorias algorítmicas.
La Sentencia BOSCO no se limitará a constituir solo un precedente jurisprudencial para futuros procesos judiciales relacionados con la adopción de decisiones automatizadas por parte de la Administración Pública, sino que abre un debate jurídico-doctrinal en otros ámbitos del Derecho sobre su extensión y aplicación, y alerta al legislador sobre la necesidad de regular las zonas grises de desprotección de los trabajadores, especialmente ante la inminente aplicación de estas tecnologías en las relaciones laborales tanto en el sector público como en el privado.