top of page
Diseño sin título (1).png

Blog Odiseia

Sigue nuestro blog y mantente al día de todos los avances y noticias en el mundo de la inteligencia artificial y su impacto social y ético.

Libro Blanco sobre el impacto, regulación y garantías ante el uso de la IA por el empleador respecto de sus trabajadores

Pere Simón Castellano

Resumen del estudio sobre el impacto y las garantías ante el uso de la inteligencia artificial por los empleadores, realizado por OdiseIA en el marco del proyecto cAIre. Puedes conocer más sobre esta iniciativa en el siguiente enlace: Caire - OdiseIA.

Esta es la primera versión del entregable principal del subproyecto, cuya versión definitiva estará disponible a finales de 2025.





A continuación, se ofrece un resumen en formato de preguntas y respuestas que destaca los aspectos más relevantes e innovadores del Libro Blanco.


¿Qué cambios introduce la IA en el ámbito laboral?


La inteligencia artificial está modificando de manera profunda el mercado de trabajo. Automatiza procesos rutinarios, transforma la selección y evaluación del personal y redefine la experiencia de los trabajadores dentro de las empresas. Su impacto es cada vez más evidente, como muestran los datos del INE, que indican que en 2024 el 12,4% de las empresas en España ya utilizaban alguna herramienta de IA. Esta tendencia es promovida desde las administraciones públicas mediante estrategias gubernamentales, como el Kit Consulting, que facilitan su implantación.



¿Cuáles son los principales casos de uso de la IA por los empleadores?


Las empresas están incorporando la inteligencia artificial en distintos ámbitos de su operativa. En la selección de personal, herramientas como HireVue o LinkedIn Talent Solutions permiten gestionar grandes volúmenes de candidaturas en tiempos reducidos. Aunque optimizan los procesos, pueden generar sesgos que afectan la equidad en el acceso al empleo. En la gestión administrativa, soluciones como Workday y UiPath mejoran la eficiencia en la administración de nóminas, permisos y beneficios, reduciendo errores y optimizando recursos. En la monitorización del desempeño, sistemas como ActivTrak y Microsoft Viva analizan patrones de trabajo en tiempo real, facilitando la toma de decisiones basada en datos. La formación de empleados también se beneficia de estas herramientas, con plataformas como Coursera for Business y Degreed, que personalizan planes de aprendizaje según las necesidades de cada trabajador. Además, en la mejora de la experiencia del empleado, los chatbots como IBM Watson Assistant facilitan la comunicación con los departamentos de recursos humanos, mientras que sistemas como Kronos Workforce Dimensions optimizan la asignación de tareas y turnos.


¿Existen normas aplicables al uso de IA en el ámbito laboral?


El uso de la inteligencia artificial en el empleo se encuentra regulado en distintos niveles. En la Unión Europea, el Reglamento Europeo de Inteligencia Artificial clasifica los sistemas en función de su nivel de riesgo, diferenciando entre los de riesgo mínimo, limitado, alto e inaceptable. Esta clasificación permite definir con mayor precisión las obligaciones que deben cumplir empleadores y desarrolladores de sistemas de IA. En España, normativas como el Estatuto de los Trabajadores y la Ley Orgánica de Protección de Datos establecen principios aplicables al uso de IA en el empleo. Además, la Carta de Derechos Digitales introduce una serie de directrices sobre la transparencia y la supervisión en la utilización de estos sistemas. A nivel global, países como Estados Unidos, Canadá y Brasil están avanzando en regulaciones específicas para garantizar un uso responsable de la IA en el entorno laboral.


¿Qué garantías establece el Reglamento Europeo de IA?


El Reglamento impone una serie de medidas destinadas a proteger los derechos de los trabajadores frente al uso de la inteligencia artificial en el ámbito laboral. Se prohíben aquellas tecnologías consideradas de riesgo inaceptable, como el reconocimiento de emociones en el trabajo o los sistemas que clasifiquen a los empleados en función de datos biométricos sensibles. Se establecen además obligaciones de transparencia, que requieren que los empleadores informen a sus trabajadores sobre el uso de IA en procesos de toma de decisiones que puedan afectar sus condiciones laborales. También se garantiza la supervisión humana en estos procesos y se exige la realización de evaluaciones de impacto para mitigar los posibles sesgos y discriminaciones.



¿Cómo regula la Directiva europea sobre trabajo en plataformas el uso de la IA en entornos laborales?


La recién aprobada Directiva de la Unión Europea sobre trabajo en plataformas (cuya referencia completa es Directiva UE 2024/2831, del Parlamento Europeo y del Consejo) introduce un marco normativo pionero para regular la gestión algorítmica en este sector. Hasta ahora, muchas plataformas digitales han operado con modelos de contratación opacos, donde la toma de decisiones automatizada afecta directamente a las condiciones laborales de los trabajadores sin apenas control humano. La Directiva establece que debe presumirse la existencia de una relación laboral cuando se cumplen ciertas condiciones, como la imposición de tarifas, restricciones en la organización del trabajo o la evaluación del desempeño a través de algoritmos. Esto es un avance clave para evitar el falso trabajo autónomo y garantizar derechos básicos a estos trabajadores.


Además, impone obligaciones específicas para las plataformas digitales en cuanto a transparencia y supervisión de la IA. Exige que los trabajadores tengan derecho a ser informados sobre cualquier sistema de IA que influya en su contratación, condiciones de trabajo o despidos. También obliga a las empresas a asegurar que siempre haya intervención y supervisión humana en las decisiones automatizadas y que los trabajadores puedan impugnar decisiones tomadas por algoritmos. Otro aspecto destacado de la pionera Directiva es la protección de los derechos de los trabajadores y sus representantes, lo que incluye la posibilidad de participar en la evaluación de los algoritmos y sus resultados. El derecho a la protección de los datos personales de los trabajadores también ocupa una posición importante, restringiendo la recopilación masiva de información personal y prohibiendo el uso de determinados sistemas de IA que invadan la privacidad o generen discriminación.


Esta Directiva representa un cambio estructural en el mercado laboral digital, marcando un antes y un después en la regulación del empleo en plataformas. La implementación efectiva de estas medidas dependerá del desarrollo legislativo en cada país y del control sobre el cumplimiento de estas normas por parte de las plataformas.


¿Cómo afecta la IA a la protección de datos en el ámbito laboral?


El Reglamento General de Protección de Datos y el Reglamento de IA establecen normas para proteger la privacidad de los trabajadores. El tratamiento de datos mediante inteligencia artificial debe cumplir con criterios de legitimidad y proporcionalidad. Los empleados tienen derecho a ser informados sobre cómo se utilizan sus datos y en qué medida las decisiones automatizadas pueden influir en su desempeño y trayectoria laboral. La normativa limita el uso de sistemas de IA que tomen decisiones de manera completamente automatizada sin posibilidad de revisión humana, salvo en situaciones en las que el trabajador haya otorgado su consentimiento explícito o exista una base jurídica clara que lo permita.


¿Qué derechos tienen los trabajadores frente a la IA?


Los trabajadores tienen derecho a la transparencia en el uso de estos sistemas, pudiendo conocer de qué manera la inteligencia artificial impacta en sus condiciones laborales. La regulación europea también enfatiza la necesidad de garantizar la igualdad en el empleo, evitando sesgos algorítmicos que puedan generar discriminación. Además, se refuerza la obligación de supervisión humana en aquellas decisiones automatizadas que puedan afectar de manera significativa a los empleados.




¿Cómo impacta la IA en colectivos vulnerables?


El estudio pone de relieve que la inteligencia artificial puede afectar de manera desproporcionada a determinados colectivos, como personas con discapacidad o en riesgo de exclusión. En algunos casos, los sistemas de IA pueden reforzar desigualdades preexistentes, ya sea por sesgos en los algoritmos o por la falta de accesibilidad en las herramientas digitales. Para mitigar estos riesgos, es necesario diseñar soluciones que sean inclusivas y adoptar medidas que garanticen la equidad en su aplicación.


¿Cómo influyen los convenios colectivos y acuerdos laborales en la regulación de la IA en el empleo?


El marco normativo de la IA en el empleo no se limita a regulaciones estatales o europeas, sino que también puede definirse a través de convenios colectivos y acuerdos específicos entre empleadores y trabajadores. La negociación colectiva es un instrumento clave para garantizar que la adopción de IA en el entorno laboral respete los derechos de los trabajadores y se adapte a las particularidades de cada sector.

Algunos convenios recientes han comenzado a incluir cláusulas sobre transparencia y control de la IA, estableciendo que las empresas deben informar y negociar con los representantes sindicales antes de implantar sistemas algorítmicos que afecten la contratación, evaluación o despido de empleados. También hay acuerdos que imponen garantías adicionales sobre la supervisión humana en la toma de decisiones automatizadas o que exigen auditorías externas para verificar que los sistemas de IA cumplen con principios de equidad e inclusión. En el trabajo se citan y analizan como ejemplo los convenios colectivos de Telefónica, Renault, Just Eat o Volkswagen, entre otros. Y también las referencias del V Acuerdo para el Empleo y la Negociación Colectiva (AENC) suscrito por las principales organizaciones sindicales y empresariales de España —CCOO, UGT, CEOE y Cepyme—.

Otro aspecto en el que los convenios pueden jugar un papel importante es la formación en IA. A medida que la inteligencia artificial se convierte en una herramienta central en muchas empresas, los acuerdos laborales pueden garantizar que los trabajadores reciban capacitación para interactuar con estos sistemas y aprovechar sus beneficios sin que ello implique una precarización de su empleo.

¿Qué papel juegan los acuerdos y buenas prácticas en la regulación de la IA?

Además de la regulación obligatoria, existen mecanismos de autorregulación que pueden complementar la normativa vigente. La inclusión de cláusulas sobre el uso de IA en convenios colectivos puede ayudar a establecer garantías adicionales para los trabajadores. Asimismo, el desarrollo de códigos de conducta y principios éticos permite orientar el uso de la IA hacia prácticas más responsables y transparentes.


¿Qué recomendaciones propone el estudio para garantizar un uso responsable de la IA en el empleo?


El estudio destaca la importancia de que las empresas desarrollen marcos normativos internos que regulen el uso de la IA en su operativa. También se recomienda la creación de comités de supervisión que velen por el cumplimiento de los principios éticos y regulatorios en la aplicación de estos sistemas. La formación de los empleados en el uso responsable de la IA y la realización de auditorías periódicas para evaluar el impacto de estas tecnologías en el entorno laboral son otros elementos clave para garantizar su correcta implementación.


¿Cuáles son los principales usos de la IA en el sector público y qué retos plantea su implementación?


El sector público no es ajeno a la automatización y digitalización impulsadas por la IA. En los últimos años, diferentes administraciones han comenzado a utilizar IA para optimizar procesos burocráticos, mejorar la toma de decisiones y aumentar la eficiencia en la prestación de servicios públicos. Sin embargo, su uso en la gestión del empleo público plantea desafíos específicos que requieren una regulación clara y garantías adecuadas.


Uno de los principales ámbitos de aplicación de la IA en el sector público es la gestión de los procesos selectivos. Algunos sistemas de IA ya se utilizan para analizar solicitudes de empleo, evaluar méritos y competencias o incluso realizar pruebas automatizadas en concursos públicos. Aunque estas herramientas pueden hacer que los procesos sean más rápidos y eficientes, también generan preocupaciones sobre la falta de transparencia en los criterios de selección y la posibilidad de sesgos en la evaluación de candidatos.


Otra aplicación relevante es la gestión del desempeño de los empleados públicos. Se han implementado herramientas que monitorizan la productividad y el cumplimiento de objetivos en tiempo real, pero esto ha generado debates sobre privacidad, vigilancia laboral y presión excesiva sobre los trabajadores. Además, en algunos países se están utilizando sistemas de IA para detectar irregularidades o malas prácticas en el sector público, analizando grandes volúmenes de datos para identificar patrones sospechosos en contrataciones o gastos administrativos.


En este contexto, la regulación es fundamental para establecer límites claros sobre el uso de IA en el empleo público. Se deben garantizar principios de transparencia, asegurando que los empleados sepan qué sistemas se están utilizando y cómo afectan sus condiciones laborales. También es clave la supervisión humana, evitando que decisiones automatizadas puedan afectar de manera injusta la carrera profesional de los empleados públicos. Además, se deben desarrollar programas de formación en IA para que los trabajadores del sector público comprendan y puedan supervisar el uso de estas herramientas en su entorno laboral.


A todos los actores involucrados en este inevitable proceso de incorporación de la IA en el empleo, recomendamos la lectura del Libro blanco y de las principales conclusiones y propuestas de acción que en este se formulan. 



Autor de la entrada del blog: Pere Simón Castellano.

Gráficos e imágenes generadas a partir del contenido de la investigación con napkinAI. Autora del prompt Rosa Cernada Badía. 

Autores del entregable: Rosa Cernada Badía, Lorenzo Cotino Hueso, Antonio Merchán Murillo, Adrián Palma Ortigosa y Pere Simón Castellano.

Realizado en el marco del proyecto Google Caire por OdiseIA.

Versión definitiva disponible en 2025.



Comments


bottom of page