Le déploiement de l’IA dans les organisations et son utilisation dans les recrutements

Analyser les impacts de l’intelligence artificielle (IA) sur le travail, les travailleurs, l’emploi et les compétences : voici l’objectif du LaborIA, un laboratoire de recherche dédiée à l’intelligence artificielle, crée par le ministère du Travail, du Plein emploi et de l’Insertion et Inria en novembre 2021. Le laboratoire publie aujourd’hui les premiers résultats d’une enquête qualitative sur le déploiement de l’IA dans les organisations. Cette étude a été réalisée dans le cadre du LaborIA-Explorer, une première zone d’expérimentation portée par le LaborIA et opérée par l’institut Matrice.

La méthode d’enquête

Cette enquête, qui repose sur des interviews, interroge les impacts de l’usage des systèmes d’intelligence artificielle (SIA) dans les entreprises et les organisations publiques.

Elle a été menée en 2022 auprès de 250 décideurs (direction générale, direction RH, direction SI, direction de l’innovation), travaillant au sein d’entreprises et d’organisations publiques de plus de 50 salariés. Les répondants exercent dans divers secteurs tels que l’industrie (15 %), l’administration publique (15 %), les services financiers (13 %), du BTP, la construction et le transport (9 %).

Des premiers résultats significatifs

L’enquête met en évidence les systèmes d’IA (SIA) les plus utilisés, les motifs qui ont présidé à leur mise en œuvre, les freins et obstacles que les projets ont dû lever et les impacts ressentis ou projetés des SIA sur les différentes dimensions du travail.

Voici les premiers résultats :
 

  • Les systèmes d’IA décrits par les répondants sont globalement matures, c’est-à-dire déjà déployés et utilisés, en particulier dans le secteur industriel.
  • Les SIA sont généralement mis en place au motif de la réduction du risque d’erreur (pour 85 % des répondants), de l’amélioration de performance des salariés (75 %), et de la réduction des tâches fastidieuses (74 %). On note également que les répondants déclarent fréquemment utiliser des systèmes d’IA pour garantir la sécurité des salariés, en particulier dans l’industrie.
  • Davantage que le coût de développement, le manque de compétences en interne (37 %) et la compatibilité avec les outils existants (38 %) sont identifiés comme les principaux obstacles au déploiement de SIA.
  • Le ressenti d’impact positif de l’IA est bien plus élevé chez les répondants qui utilisent l’IA (90 %) que chez ceux qui ne l’utilisent pas (48 %).
  • Les résultats montrent que les systèmes d’IA ont des effets sur l’ensemble des dimensions du travail, telles que le sens, l’autonomie, la responsabilisation des salariés, les relations sociales, mais aussi et surtout sur l’évolution des compétences et des savoir-faire (pour près de 70 % des répondants).

Le colloque LaborIA

Le 26 septembre 2023, le ministère du Travail, du Plein emploi et de l’Insertion, Inria et Matrice, ont organisé un colloque sur les transformations du travail par l’intelligence artificielle.
Le LaborIA a présenté en avant-première les résultats d’une enquête en 3 temps, mêlant approches quantitatives et qualitatives durant laquelle 250 décideurs d’entreprises et de secteurs différents ont été interrogés via un questionnaires, ainsi que plus de 100 travailleurs utilisateurs de SIA de tout type.

Les rapports d’enquête seront publiés d’ici fin 2023 et disponibles à tous, sur le site laboria.ai.

À propos du LaborIA

Le LaborIA a été créé en novembre 2021 par le ministère du Travail, du Plein emploi et de l’Insertion et Inria. Ce laboratoire de recherche vise à explorer le rapport des entreprises et des acteurs publics à l’intelligence artificielle. Il a également pour ambition de déployer des expérimentations concrètes, en situation de travail, sur différentes thématiques : conditions de travail, recrutement, évolution des compétences, dialogue social technologique, etc.

Le LaborIA est piloté par un comité exécutif composé de douze membres, dont cinq personnalités qualifiées issues de la société civile. Une fois par an, il réunit les partenaires sociaux dans un format élargi.

Le LaborIA Explorer est la première zone d’expérimentation portée par le LaborIA et opérée par Matrice (institut d’innovation sociale et technologique). Ses travaux visent à explorer les impacts de l’IA sur le travail au sens large, et notamment la notion de confiance entre un SIA et ses utilisateurs.

Les enjeux de l’IA dans les pratiques de recrutement

La Dares, le service statistique du ministère du Travail, du Plein emploi et de l’Insertion a invité des chercheurs et experts à réfléchir à cette question lors d’un cycle de trois rencontres scientifiques cet automne. Les présentations ont permis de mieux comprendre les enjeux et la manière dont l’IA s’inscrit dans les pratiques des recruteurs. Ces derniers sont souvent pris dans des tensions entre des attentes fortes en termes de transparence, d’objectivation et de performance prédictive, et les risques perçus d’opacité, de reproduction de biais discriminatoires ou d’iniquité.

« Le degré de confiance déclaré par les recruteurs est supérieur pour les préconisations humaines que celles faites par une IA. »

Christelle Martin-Lacroux (Université Grenoble Alpes / CERAG)

Penser une IA éthique et responsable dans les recrutements suppose à la fois de réfléchir à rendre les algorithmes explicables et interprétables, de penser de nouvelles normes juridiques, et d’impliquer davantage les parties prenantes dans le déploiement des outils.

« L’utilisation des IA dans les pratiques de recrutement est récente en gestion des ressources humaines et prend des formes qui posent des questions éthiques, car on parle d’automatisation de décisions très importantes pour les individus. »
Clothilde Coron (Université Paris-Saclay)

Ces rencontres permettront à la Dares de lancer début 2024 un appel à projets de recherche pour financer de nouveaux travaux sur le sujet.

En vidéos

Éclairage de Christine Balagué

Christine Balagué, professeure à l’Institut Mines-Télécom Business School, présente en quelques mots la notion d’interprétabilité appliquée aux algorithmes de l’intelligence artificielle.

Les systèmes deviennent de plus en plus complexes avec le deep learning, avec des réseaux de neurones ou l’IA générative, aujourd’hui qu’il y a des millions, voire des milliards de paramètres. Donc expliquer comment fonctionne un algorithme devient très compliqué.

En revanche, on a une possibilité d’expliquer aux utilisateurs la manière dont fonctionne l’algorithme. Et encore plus précis que l’explicabilité, on s’intéresse à un concept qui s’appelle l’interprétabilité, c’est-à-dire on va essayer d’expliquer comment fonctionne l’algorithme, c’est-à-dire quels sont les principaux critères qui rentrent dans l’algorithme, quels sont les principaux critères qui jouent sur le résultat. Mais on va également essayer de mesurer le fait que la personne ou l’utilisateur final ait compris l’explication.

Donc, ce concept, c’est l’interprétabilité. La prochaine régulation de l’intelligence artificielle, en Europe, est basée sur des risques, donc avec trois niveaux de risques : des applications d’IA qui seront considérées comme non applicables parce qu’à trop haut risque pour les citoyens, des applications à haut risque qui auront des contraintes et ensuite des applications qui pourront être déployées, sans contrainte, en Europe.

 

Éclairage de Marie Benedetto

Sociologue du travail et des organisations pour la Dares, Marie Benedetto expose quelques problématiques que soulève l’utilisation de l’IA par les entreprises : biais et discrimination à l’embauche, confiance et défiance au sein des organisations, régulation…

Nous nous sommes interrogés sur les différents outils de l’IA qui sont utilisés aujourd’hui dans les organisations, les questions que cela pose en termes de biais, de discrimination à l’embauche.

On s’est aussi intéressés aux mécanismes de confiance ou de défiance qui naissent autour de l’intelligence artificielle. On peut avoir une méfiance a priori et puis, finalement, quand même suivre les recommandations de l’IA.

Et puis, on s’est aussi intéressés aux questions de régulation. Comment est-ce qu’on peut cadrer les usages ? Est-ce qu’il faut faire appel plutôt aux législateurs, plutôt à la technique ? Et dans quelle mesure on peut introduire une IA responsable et éthique dans les organisations ?

À partir de ces rencontres, la Dares lancera, début 2024, un appel à projets de recherche qui permettra à des équipes de chercheurs et chercheuses de proposer des projets pour des travaux qui seront financés par la Dares sur le sujet.

 

Éclairage de Michaël Hayat

Michaël Hayat, avocat associé du cabinet SDA, soulève la question du pouvoir de décision de l’employeur, face au pouvoir acquis par les éditeurs de logiciels d’intelligence artificielle, en raison des exigences de leurs solutions.

Les éditeurs de logiciels d’intelligence artificielle ont-ils pris le pouvoir ? La question, pour l’instant, mérite d’être étudiée.

Il reste qu’effectivement, on pourrait concevoir que le pouvoir de direction de l’employeur soit amoindri dans la mesure où une intelligence artificielle peut avoir des exigences pour collecter des données et que l’employeur n’ait pas le choix que de satisfaire ces exigences en modifiant les conditions de travail des salariés après négociations, bien évidemment, et donc, finalement, ne décide plus lui-même des conditions d’exécution des contrats de travail qu’il a signés.

Finalement, l’intelligence artificielle, ce n’est qu’un outil, ce n’est qu’un usage, et on a un certain nombre de textes faits pour encadrer le recours à des outils ou des nouveaux usages dans le droit du travail, des textes qui obligent à l’information, des textes qui obligent à la consultation et des textes qui déterminent la responsabilité des acteurs concernés.

 

Éclairage d’Odile Chagny

Chercheure à l’Institut de recherches économiques et sociales (IRES), Odile Chagny évoque quelques-unes des questions légales et réglementaires que soulève le déploiement de l’IA dans les organisations.

On a discuté des règlements IA, les AI Act, mais en fait, on est très, très loin d’avoir adopté, enfin, de la transposition en France parce que ce n’est toujours pas adopté au niveau européen.

On est dans une phase de trilogue. Les aspects proprement liés au travail, aux impacts sur le monde du travail, ne sont pas au cœur du règlement.

La Commission européenne, après les élections, travaillera sur un projet de directive sur le management algorithmique qui mettra vraiment au cœur la question du travail en lien avec les algorithmes. Une fois que ce sera adopté, probablement à la fin de l’année, il faudra encore attendre deux ans avant que ce soit transposé dans le contexte français.

Pourtant, c’est vraiment un règlement essentiel. C’est essentiel parce que c’est la première fois qu’en fait, on va imposer des contraintes aux fournisseurs de systèmes IA, et en particulier sur des enjeux de RH et de recrutement qui vont être considérés par le règlement comme des systèmes à haut risque.

La question aussi est de savoir si les partenaires sociaux se sont emparés ou pas de ces sujets. En fait, cela fait des années que les organisations syndicales s’intéressent au sujet de l’IA, mais en fait, on se heurte à une grande difficulté qui est qu’il y a un problème d’acculturation assez général, y compris du côté des directions et du management sur les enjeux de l’IA.

Ce manque de culture et de connaissances fait que, finalement, dans plein d’entreprises, quand il y a de l’IA qui est là, on ne s’en rend pas compte, et du coup, le dialogue social n’est pas mobilisé.