Nuevos avances en la regulación de la IA: NY a la cabeza

María Rosa Vallecillo Gámez.
Profesora Titular de Derecho del Trabajo y de la Seguridad Social.
Universidad de Jaén.


1.El pasado mes de junio, el Parlamento Europeo adoptó su posición negociadora sobre la ley de Inteligencia Artificial (IA), que se convertirá en el primer conjunto de normas del mundo para una gestión en profundidad de los riesgos de la IA. Como parte de su estrategia digital, la UE ha comenzado a trabajar en la regulación de la inteligencia artificial (IA) para garantizar mejores condiciones tanto en el desarrollo como en el uso de esta tecnología innovadora. La IA puede aportar muchos beneficios, como lo son una mejor asistencia sanitaria, un transporte más seguro y limpio, una fabricación más eficiente y una energía más barata y sostenible, pero su uso no está exento de riesgos.

No son los primeros pasos que se dan para regular esta tecnología. Ya en abril de 2021, la Comisión propuso el primer marco regulador de la UE para la IA, de manera que el uso de sistemas de IA, sea cual sea su aplicación, se analicen y clasifiquen según el riesgo que supongan para los usuarios. El nivel de regulación dependerá del nivel de peligro que implique su uso. Una vez aprobada esta normativa, se convertirá en la primera norma a nivel mundial, sobre IA.


2.Elementos imprescindibles que ha de incluir la legislación sobre IA. La prioridad del Parlamento es garantizar que los sistemas de IA que se utilicen en todos los países de la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. En esta línea, cobra una especial importancia la exigencia de que los sistemas de IA deban ser supervisados por personas, en lugar de a través de una retroalimentación, en evitación de ineficiencias y efectos indeseados. El Parlamento, además, pretende establecer una definición de la IA que sea uniforme y tecnológicamente neutra para que pueda aplicarse a cualquier futuro sistema que la aplique.


3.NY es pionera y ya avanza. Pero mientras tanto, al otro lado del charco, se van consolidando iniciativas que pueden ser importables al viejo continente. Nueva York, en los últimos tiempos, se ha convertido en el banco de pruebas de normas pioneras en EE UU, lo que, si aplicamos la técnica de las buenas prácticas, se traslada al resto del mundo. A las recientes leyes aprobadas – la que fija un sueldo mínimo para los repartidores y otra que prohíbe la discriminación laboral por razones de peso -, se suma una tercera, en vigor desde primeros del mes de junio, que pone coto al uso descontrolado de la Inteligencia Artificial (IA). La nueva norma impone restricciones al uso de herramientas automatizadas de decisión de empleo (AEDT, en sus siglas inglesas) – los algoritmos – para impedir que los procesos de selección de personal se vean condicionados por elementos de discriminación sexistas y raciales. Una herramienta automatizada de decisión de empleo (AEDT) es un programa informático que utiliza el aprendizaje automático, el modelado estadístico, el análisis de datos o la inteligencia artificial para ayudar sustancialmente a la contratación, es decir, facilitar o agilizar la elección de la persona adecuada según el algoritmo.

La ley, la primera de este tipo en el mundo según algunos expertos, estipula que los programas informáticos de contratación basados en el aprendizaje automático o la IA deben superar una auditoría realizada por una empresa externa para demostrar que están libres de sesgos racistas o sexistas. Los programas de contratación basados en IA ya estaban en el punto de mira por presentar evidencias de sesgos de racismo, sexismo y otras discriminaciones, pero ha habido que esperar a la generalización de aplicaciones como ChatGPT y Midjourney para que tanto los congresistas como un buen número de ejecutivos de empresas tecnológicas se planteen establecer esta regulación. De todas maneras, hasta el momento, el Congreso ha dado pocas pistas sobre cuáles podrían ser esos límites.

Según la ley de Nueva York, los empleadores o agencias de empleo que deseen utilizar los algoritmos deben asegurarse de que se ha realizado la auditoría de sesgos antes de utilizar la herramienta. Pero también antes de la publicación de resúmenes de resultados de la auditoría en su sitio web y antes de notificar a los candidatos y empleados el sistema que se utilizará para su evaluación. Deberá incluir instrucciones para solicitar un ajuste razonable de requisitos del puesto teniendo en cuenta las capacidades personales. Y, además, la empresa deberá publicar en su sitio web un aviso sobre el tipo y la fuente de los datos utilizados para la herramienta y la política de conservación y protección de datos. Las empresas que utilicen software algorítmico de terceros tienen, por ley, prohibido el uso de dichos programas si no han sido debidamente auditados.


4.La regulación no resuelve todos los problemas. Las ciudades utilizan tecnologías algorítmicas y automatizadas para tomar todo tipo de decisiones, desde determinar la distribución del censo escolar hasta decidir si alguien debe quedar en libertad bajo fianza antes de un juicio. Pero hasta ahora existían pocas salvaguardas para garantizar que estas tecnologías tomen decisiones justas. Las primeras experiencias con herramientas de IA demostraron en los últimos años que pueden ser categóricamente injustas: por ejemplo, a finales de la pasada década se descubrió que los algoritmos utilizados por las fuerzas del orden para evaluar y puntuar los riesgos de seguridad de menores o delincuentes fichados pueden afectar de forma negativa y desproporcionada a los afroamericanos, el grupo de población más susceptible, junto con el de los latinos, de ser arrestado o interpelado por la policía.

Los expertos afirman que, aunque la nueva ley neoyorquina es importante para los trabajadores, sigue siendo muy limitada. Julia Stoyanovich, profesora de informática de la Universidad de Nueva York y miembro fundador del Grupo de Trabajo sobre Sistemas de Decisiones Automatizadas de la ciudad -el primero de este tipo en EE UU, establecido en 2018 para revisar el uso de algoritmos en los programas de la ciudad-, considera que es un comienzo importante, pero aún muy limitado. “Me alegro mucho de que la ley esté en vigor, de que ahora haya normas y de que vayamos a empezar a aplicarlas”, declaró la investigadora a NBC News. “Pero también hay muchas lagunas. Por ejemplo, la auditoría de prejuicios es muy limitada en cuanto a categorías. No tenemos en cuenta la discriminación por edad, por ejemplo, que en la contratación es muy importante, o por discapacidad”, añadió. La experta tampoco ve claro cómo se aplicará la ley ni en qué medida, pero lo cierto es que la iniciativa de Nueva York contribuye a alimentar el debate sobre el desarrollo y el uso descontrolados de la IA.

Los resultados de la IA dependen tanto de su uso como de los datos de los que se provea. El mero hecho de que exista una posibilidad de sesgar, ya sea de manera involuntaria como intencionada, el diseño o los propios datos, ya supone la existencia de un problema, por acción o por omisión. Muchas veces, la percepción que se tiene es que el uso de números para representar una realidad compleja, supone una objetivización de una realidad social compleja además de un sentimiento de precisión, y eso no siempre es así. Es lo que se conoce como «mathwashing».

En el caso que nos ocupa, el de la selección de personal, uno de los principales peligros del uso de la IA es el que se deriva de una toma de decisiones mal diseñada porque los datos introducidos pueden dar lugar a decisiones influenciadas por la etnia, el sexo o la al contratar o despedir. Igualmente, la IA supone riesgos para la privacidad y la protección de datos cuando se utilizan, por ejemplo, equipos de reconocimiento facial o para el seguimiento online o la creación de perfiles de personas. Además, permite fusionar información que una persona ha proporcionado con datos nuevos, lo que genera resultados inesperados.

La carrera por regular ha comenzado y el mundo mira a las grandes potencias en busca de orientación porque una atomización de reglas que afectan a la tecnología más relevante de este siglo puede tener consecuencias indeseadas sobre casi todo, incluido el comercio internacional y la competitividad de los países. El 14 de junio de 2023, los eurodiputados adoptaron su posición negociadora sobre la ley de IA. Ahora comenzarán las conversaciones sobre la forma final de la ley en el Consejo, junto a los países de la UE. El objetivo es alcanzar un acuerdo a finales de este año.