Cristóbal Molina Navarrete.
Catedrático de Derecho del Trabajo y de la Seguridad Social.
Universidad de Jaén.
Un principio jurídico elemental del Derecho del Trabajo es que la prestación laboral se realiza por seres humanos que no merecen ser tratados como simples máquinas, sino como personas titulares de derechos fundamentales inherentes a su dignidad.
Sentencia de la Audiencia Nacional 104/2021, 10 de mayo
1.Bien conocido es que, informadas o no, las personas estamos cada vez más sometidas, en todas las esferas de nuestra vida al control y decisiones de la “inteligencia artificial” (IA). Una de esas esferas vitales más colonizada por las tecnologías digitales es el trabajo. Este presenta una inexorable tendencia a que la actividad de prestación de servicios esté organizada de forma automatizada, a través de las modernas técnicas de “gestión analítica de personas” (en inglés “People analitycs”), consistente en procesos de toma de decisiones basados en sofisticados análisis y predicciones realizados en tiempo real a partir del conocimiento que proporciona la Big Data, la IA y las mediciones algorítmicas. Así se puso de relieve, con informaciones detalladas, en las ponencias que, tanto para el ámbito europeo como para el latinoamericano, presentaron algunas de las personas más expertas en estas cuestiones, el día 29 de septiembre de 2021, en el Congreso Internacional sobre la economía digital (de datos) y la sociedad del e-trabajo decente.
En ocasiones, el uso de la IA puede llegar a ser invasivo, pero con cara amable, con “una sonrisa”. En la Oficina de la multinacional Canon Information Technology en Pekín, una tecnología de «reconocimiento facial sonriente» en su sistema de gestión del lugar de trabajo marcará la pauta laboral: podrá acceder o no a su trabajo, o a sus dispositivos de servicios, según la expresión de su cara, si sonríen, no en otro caso. Lo que para las empresas se presenta como una forma tecnológica de mejorar el ambiente psicosocial o emocional laboral, facilitando la relajación que proporciona la sonrisa, creando un entorno más feliz, por tanto, más productivo, para las personas empleadas significa un control no solo del tiempo laboral sino de las emociones durante el mismo.
Por supuesto, no es una práctica aislada; ilustra una tendencia de gestión de las personas trabajadoras que, más allá del control de su actividad, busca conocer (predecir) e influir (determinar) su estado psíquico, a fin de maximizar el rendimiento, si bien se hace pasar como virtuosa preocupación empresarial por el bienestar general. De este modo, a través de la IA se diluyen las fronteras entre lo laboral y lo personal, como cuando AMAZON rastrea las relaciones sociales de sus personas empleadas para verificar la predisposición a la creación de sindicatos, por ejemplo, o instala cámaras para controlar las eventuales infracciones al volante pero quiere determinar actitudes, dejando de lado el estrés que esta alerta inteligente continuada genera. O, aún más evidente, cuando la multinacional de Contact Center Teleperformance, según una investigación de NBC News, fomenta la inclusión de pactos que autorice en Colombia a controlar, mediante cámaras de IA, los hogares, almacenando los datos recopilados.
2.Paradójicamente, mientras las empresas de la era digital pretenden conocer, predecir y controlar incluso los estados emocionales de las personas empleadas, por su incidencia en el rendimiento de sus servicios (mercantilización de las emociones de las personas laborales), sus decisiones buscan aislarse al máximo de tales dimensiones humanas, automatizándolas a través de la gestión algorítmica. En una entrevista para la CNBC, Jeff Bezos justifica esta delegación en algoritmos de toda decisión no estratégica, como las laborales (evaluación del rendimiento, despidos, gestión de salud laboral, etc.), porque deriva de “toda la información relevante, sin interferencia emocional alguna”. La empresa quiere saber todo de las personas que emplea, incluso en su tiempo libre, bien por sus tecnologías de IA, bien por el acceso a redes y perfiles privados, con efectos laboralmente perniciosos (-ej. Despedida por colgar fotos en un evento durante una baja de aislamiento por covid19-).
Por doquier comprobamos esta asimetría informativa. Las empresas caminarían hacia un modelo de personas empleadas totalmente “transparentes”, “predecibles” y “disponibles” para la maximización de la economía de datos, pero se muestran cada vez más opacas en su información respecto de sus modelos reales de gestión de las personas empleadas, con la excusa de que se trata de complejos y sofisticados sistemas objetivos por responder a cálculos y predicciones matemáticos y de aprendizaje continuado. De ahí las iniciales resistencias a cumplir con los deberes de transparencia (art. 64 ET) y negociación en relación con la gestión mediante tecnologías digitales e IA, que emergen lentamente en la negociación colectiva más reciente (ej. Convenio colectivo para los establecimientos financieros de crédito) mientras que se promueven todos los canales informativos que la tecnología permite para conocer y predecir cómo se comportaran las personas empleadas, antes, durante y después de su contrato. No por casualidad casi 9 de cada 10 empresas acuden habitualmente a las redes sociales para la gestión de las candidaturas de empleo, según el barómetro sobre la digitalización de la captación del talento, mientras que son ya numerosas las empresas que se apoyan en sistemas de inteligencia artificial y programas algorítmicos, incluida la elaboración de perfiles, para decidir la contratación de personal, la asignación de tareas, la distribución de tiempos y lugares de trabajo, la evaluación y promoción profesional o la verificación de objetivos para el devengo de un incentivo o “bonus”, retribuciones variables cada vez más usadas, de ahí también su mayor conflictividad.
3.El actual marco normativo de protección de datos personales no queda ajeno a esta marcada evolución (art. 22 del Reglamento UE/2016/679 –RGPD- relativo a las decisiones individuales automatizadas, incluida la elaboración de perfiles; así como art. 25 RGPD –diseño de los sistemas de tratamiento de datos desde el proyecto y por defecto, para evitar el riesgo de vulneración de derechos fundamentales de las personas interesadas-). Pero es insuficiente, como reconoce la propia Comisión Europea, que está preparando una regulación más detallada y precisa sobre la IA, mediante una propuesta de Reglamento capaz de subsanar los riesgos y problemas actuales vinculados a la IA, incluyendo sistemas de control biométrico, elaboración de perfiles y reconocimiento de emociones, sin obstaculizar ni impedir indebidamente el desarrollo tecnológico y sin aumentar de un modo desproporcionado el coste de introducir soluciones de IA en el mercado. Ahora bien, mientras tanto, es interesante tomar nota de la aprobación por el Comité de Ministros del Consejo de Europa (organización internacional distinta a la Unión Europea) de una Recomendación destinada a responder a los cambios radicales que se han producido en las técnicas de elaboración de perfiles en los últimos diez años y la consiguiente necesidad de nuevas salvaguardias para proteger los datos personales y la privacidad de las personas en general, y trabajadoras en particular.
La Recomendación CM/Rec (2021) 8 sobre la protección de las personas con respecto al procesamiento automático de datos en el contexto de la elaboración de perfiles, aprobada en sesión de 3 de noviembre, actualiza una recomendación anterior sobre la misma cuestión adoptada en 2010. Su objetivo principal es alinear su marco regulador –que no es vinculante- con el «Convenio 108» –que sí lo es- sobre protección de datos personales, modernizado y conocido como «Convenio 108+«. Aunque, ciertamente, el actualizado marco de orientación reguladora e interpretativa del tratamiento automatizado de los datos personales (gestión algorítmica), incluyendo predicciones basadas en los perfiles (gestión analítica), no refiere expresamente a las personas trabajadoras, sí que tiene una especial incidencia en el ámbito de las relaciones laborales, afectando a todo ámbito, sea público sea privado. En este sentido, sus pautas han de servir para prevenir los riesgos de violación de derechos y libertades de rango fundamental, también en los entornos laborales digitalizados de nuestro tiempo: en particular la dignidad humana, la privacidad, la libertad de expresión, la no discriminación de las personas trabajadoras, así como el respeto a la diversidad cultural, étnica, etaria, de capacidades, etc., de las plantillas.
La Recomendación define la elaboración de perfiles como cualquier forma de procesamiento automático de datos personales, incluido el uso de sistemas de aprendizaje automático (“machine learning”), consistente en el uso de datos para evaluar ciertos aspectos personales, mencionando “el análisis y/o predicción de los aspectos relacionados con el desempeño profesional”, así como “la situación, salud, preferencias personales, intereses, confiabilidad, comportamiento, ubicación o viaje de las personas físicas” (en nuestro caso empleadas). Se asume, de este modo, la definición que da al respecto el art. 4.4 del RGPD. La Recomendación reconocerá, entre otras cuestiones, que las técnicas de elaboración de perfiles pueden afectar a las personas (trabajadoras) clasificándolas en categorías predefinidas que, relevantes para la toma de decisiones que les afectan (implica siempre evaluación o juicio para su utilidad a unos fines determinados, en el caso laboral su rentabilidad para las empresas), a menudo funcionan sin su conocimiento. Esta falta de transparencia constituiría una fuente de riesgos relevantes para los derechos humanos de las personas en general, y trabajadoras en particular, que requiere de un principio de precaución para evitar que se actualicen, como en su día evidenciaron las Directrices sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del RGPD, del CT29.
4.De este modo, el Consejo de Europa y la UE se alinean para promover la mejora del cumplimiento de un marco jurídico ya legalmente vinculante (arts. 22, 25 y 35 RGPD) para el uso de los procedimientos y sistemas de tratamiento de datos que respeten la privacidad, así como el resto de derechos fundamentales afectados, desde el inicio (la privacidad por el diseño) y durante toda la duración del procesamiento. Asimismo, llama a una mayor participación de los sujetos representativos de las personas afectas, esto es, en el ámbito laboral, reclamaría una gobernanza colectiva de la gestión analítica de personas. En suma, maximización digital del rendimiento sí, pero también precaución en su uso para garantizar que el alma digital no absorba el alma humana del trabajo