L’intelligence artificielle (IA) s’invite progressivement dans nos vies professionnelles, que ce soit dans le recrutement, la gestion des ressources humaines, l’automatisation des tâches ou la prise de décision. Les salariés utilisent l’IA afin d’améliorer leur efficacité, ou pour les aider dans des tâches rébarbatives, et souvent sans que leur hiérarchie en soit informée.
L’IA dans le monde du travail peut reposer sur différents types d’outils :
- Des assistants virtuels (ex. : ChatGPT) pour rédiger des e-mails, résumer des documents ou générer des idées,
- Des outils de traduction automatique,
- Des logiciels d’analyse de données prédictives,
- Des systèmes d’automatisation de tâches répétitives,
- Des chatbots
Mais quels sont les enjeux juridiques en droit social de l’utilisation de l’IA dans les entreprises?
Si la directive européenne sur l’intelligence artificielle (IA Act) entrée en vigueur le 2 février 2025 tente d’encadrer tant les fournisseurs que les utilisateurs de l’IA, il n’en reste pas moins que les principes de base applicables aux employeurs se trouvent déjà dans le code du travail.
Tour d’horizon de ces principes :
Consultation du CSE (entreprise d’au moins 50 salariés) : Le CSE pourra devoir être consulté à plus d’un titre, mais le plus évident est l’introduction de nouvelles technologies au sein de l’entreprise. Toute introduction de l’IA au sein de l’entreprise requiert la consultation du CSE qui devra ainsi être informé et consulté sur le projet et ses éventuelles conséquences sur les salariés et sur l’emploi. Il appartient à l’employeur d’évaluer l’impact de toute introduction ou utilisation de l’IA au sein de l’entreprise, et de déterminer si, et à quel titre, le CSE devra être consulté.
Transparence : Une exigence de transparence est posée tant dans l’IA Act que dans le code du travail (en matière de recrutement et d’évaluation des salariés, le code du travail précise que les méthodes et techniques employées doivent être portées à la connaissance des salariés et candidats).
Ainsi lorsqu’un candidat à l’embauche ou un salarié est évalué, recruté ou licencié sur la base d’une décision prise (ou influencée) par un algorithme, il a le droit de savoir tout d’abord que l’IA est utilisée par l’employeur et comment s’effectue cette utilisation.
Discrimination algorithmique : Il a été démontré que le recrutement peut être biaisé par ce que les anglo-saxons appellent « unconscious bias ». Nos opinions sont subjectives, elles sont guidées par notre culture et notre éducation, et peuvent influencer inconsciemment un recrutement. On pourrait penser que l’utilisation de l’IA permettrait des recrutements en toute objectivité. Cependant, et malheureusement, les algorithmes, s’ils sont entraînés sur des données fallacieuses, peuvent engendrer des discriminations. Et qu’elles soient d’origine humaine ou générées par l’intelligence artificielle, le droit du travail interdit toute discrimination fondée sur des critères illicites tels que notamment le genre, ou encore l’origine.
Il conviendra donc de mettre en place des audits réguliers des outils d’IA pour détecter et corriger tout biais institutionnel.
Formation : L’employeur a une obligation de formation et d’adaptation de ses salariés aux nouvelles technologies. Il lui appartient de former ses salariés à ces nouvelles technologies
Protection des données : L’IA repose souvent sur l’analyse de données sensibles, d’informations personnelles, d’historiques professionnels, ou encore de comportements en ligne, etc. Leur collecte et leur traitement doivent respecter des règles strictes issues du RGPD. Ainsi, et notamment, les données doivent être collectées de manière licite et transparente. En outre, l’entreprise doit obtenir le consentement éclairé des salariés si nécessaire, et garantir la sécurité des informations.
Encadrement de l’utilisation par les salariés : Si un système d’IA commet une erreur — par exemple, un outil RH qui écarte à tort un candidat ou une IA qui donne de fausses informations— qui est responsable ? L’employeur ? Le fournisseur du logiciel ? De même, un salarié peut commettre une erreur en utilisant l’IA, ou laisser fuiter des données sensibles en utilisant un assistant virtuel. Ces aspects doivent être encadrés et il est important de sensibiliser les salariés aux risques liés à l’utilisation de l’IA.
Santé et sécurité : L’IA peut clairement être un atout pour améliorer la santé et la sécurité au travail comme pour des tâches dangereuses, des métiers à risque ou pénibles. Néanmoins, l’IA peut également devenir un facteur de stress, qu’il s’agisse d’isolement social des salariés en cas de numérisation et de digitalisation à outrance, d’interaction avec des robots, ou de surveillance des salariés. L’employeur est soumis à une obligation de sécurité renforcée vis-à-vis de ses travailleurs et doit estimer et évaluer les risques présents dans l’entreprise. Le document unique d’évaluation des risques, obligatoire dans chaque entreprise, devra intégrer tout risque liée à l’existence ou l’introduction de l’IA dans l’entreprise.
L’intégration de l’IA au travail n’est pas qu’une question de technologie : c’est aussi un enjeu juridique et selon l’adage « mieux vaut prévenir que guérir », il est préférable de consacrer un peu de temps et d’effort pour éviter les dérives, protéger les salariés et prévenir les contentieux.
