
Quand l’intelligence artificielle modifie les pratiques RH
Résumé
L’IA et ses impacts sur les pratiques RH étaient au cœur de notre rencontre-conférence de ce jour. Représentative du dialogue nécessaire créé par cette nouvelle technologie, cette rencontre réunissait Giseline Rondeaux Chercheuse au sein du LENTIC (HEC Liège) et Diana Nunès Post-doctorante en Faculté de Droit, de Science politique et de Criminologie.
La rencontre a débuté avec les résultats de différentes recherches menées au LENTIC. Si dans la littérature, la majorité des approches mettent en avant des hypothèses quantitatives évaluant notamment le pourcentage de métiers qui vont disparaitre ou apparaitre, les travaux du LENTIC qui nous ont été partagés, s’intéressent, quant à eux davantage, à une approche plus qualitative des transformations générées par l’IA.
Quelles sont les tâches qui vont se transformer ? Comment anticiper l’évolution des compétences.
Giseline Rondeaux a expliqué que leur méthode repose, pour ce faire, sur une grille d’analyse qu’elle a tout d’abord commentée. Celle-ci prend en compte les contextes. Le choix des outils est porteur de sens et est également la résultante de facteurs d’influence internes (choix stratégiques, maturité technologique) et externes (règlementation, concurrence…).
Il s’agit ensuite d’identifier les situations et résultats issus de cette interaction homme-machine. Le métier initial disparait-il, subit-il une évolution (de légère à très forte ) ou donne-t-il lieu véritablement à l’apparition de nouveaux métiers ? En effet, on peut observer une substitution totale ou partielle de l’IA sur certaines tâches.
En lien avec l’adoption de ces technologies, 3 types de compétences sont particulièrement à prendre en compte :
- Les compétences digitales
- Les compétences métier (celles qui font la différence, car c’est bien l’être humain qui va pouvoir repérer, à travers son expertise, des incohérences par exemple)
- Les soft skills (en sachant qu’on grugera plus facilement la machine qu’un être humain)
En ce qui concerne les différentes matières RH, on constate que c’est essentiellement dans le recrutement que l’on investit en IA actuellement . Ensuite, vient l’automatisation, puis le fait de faire du benchmark par exemple.
La chercheuse a ensuite mis en parallèle les promesses mises en avant par les vendeurs de technologies IA et ce que la littérature scientifique en dit (remettant pas mal en question les « atouts » avancés).
Par exemple, en termes d’efficience (souvent promue par les développeurs d’IA), la littérature est loin d’être unanime quant à la réduction des coûts réellement engendrée par l’adoption d’une IA. En effet, la charge de travail peut être déplacée.
En termes d’amélioration quant aux biais, on verra également plus loin (notamment avec l’intervention de Diana Nunès), que cela n’est également pas démontré si généralement.
Quant à l’enrichissement prétendu des fonctions avec -il est vrai- un centrage sur les tâches complexes, les études mettent en garde contre le fait que ce phénomène engendre aussi une forme d’« intensification de la charge mentale » avec le remplacement de la charge administrative par une charge technologique, risquant d’augmenter la charge mentale …
Outre ces mises en garde, Giseline Rondeaux a aussi partagé différents risques identifiés :
- Émergence ou perpétuation de biais (préjugés, discrimination)
- Fracture numérique (accès, usage)
- Hallucination et qualité des données
- Intempérance énergétique
- Protection des données et sécurité (RGPD…)
- Travailleurs du clic (voir les travaux de A. Cassili, « Invisibles »)
Face à tous ces points de vigilance, le rôle du RH reste bien celui qui lui incombe généralement : donner du sens (expliquer pourquoi, accompagner, être acteur du changement, tout en étant garde-fou pour l’utilisation).
Devant ces évolutions, quel sera le métier du RH dans quelques années ? De nouveaux rôles pour les collaborateurs RH apparaissent ou deviennent nécessaires, comme de valider des résultats ou leur cohérence ; corriger des erreurs ou des biais.
En guise de conclusion, Giseline Rondeaux a bien insisté sur le potentiel énorme de l’IA en matière de RH, comme dans beaucoup d’autres domaines. Les opportunités sont effectivement gigantesques.
Mais les études et son intervention appellent aussi à une grande vigilance pour garder une approche nécessairement critique (sans fascination excessive et aveugle). Elle a aussi partagé 7 recommandations :
- Éviter la boîte noire
- Ne pas négliger les questions juridiques et éthiques
- Définir les objectifs du projet en s’appuyant sur le terrain
- Évaluer la structure, la disponibilité et la qualité des données
- Impliquer les utilisateurs et créer des équipes multidisciplinaires
- Envisager les compétences nécessaires (alphabétisation numérique)
- Investir dans la formation
La seconde partie de l’exposé a été consacrée à l’étude de la discrimination susceptible d’émerger lorsqu’on utilise des outils d’IA.
Diana Nunès, Post-doctorante en Faculté de Droit, de Science politique et de Criminologie a exposé les résultats du projet Neutr-IA, un point de vue juridique et un point de vue managérial sur l’utilisation des outils d’IA au stade du recrutement afin de révéler les potentiels biais discriminatoires au regard du genre qui peuvent s’y trouver. Cette recherche a reposé, entre autres, sur une enquête auprès d’une quinzaine d’entreprises.
Après avoir posé qu’il existe plusieurs types de biais :
- Préexistants (à l’intérieur des données).
- Structurels (émergeant dans le trajet des algorithmes aux données, et donc plus difficiles à identifier).
- Émergents (liés à l’usage des données. Ceux-là pouvant être corrigés dans la programmation de l’algorithme).
Diana Nunès a présenté la méthodologie de la recherche qui avait pour objectif de répondre à cette question « Les services concernés par le recrutement prennent-ils en compte les risques de biais et adaptent-ils leurs comportements en conséquence ? » .
Pour répondre à cette question, elle nous a présenté sa propre grille d’analyse qui permet de poser un véritable diagnostic : Quel degré de conscience (du moins conscient au plus conscient) ; Quel niveau de structuration (de l’absence de politique structurelle avec notamment beaucoup d’initiatives individuelles à une politique structurelle bien établie) ; Quelle connaissance des cadres légaux (principalement RGPD, législation anti-discrimination, IA Act).
Qu’il y ait méconnaissance, doute ou attention, il y a cette croyance que l’IA est moins biaisée que l’être humain. Qu’elle permettrait d’échapper à une éventuelle subjectivité du recrutement… Or, pour s’en assurer et intégrer vertueusement l’IA dans les pratiques RH, bien des facteurs doivent être réunis. La chercheuse a notamment souligné l’importance de mettre en place une politique structurelle déterminée, avec une collaboration importante entre les services juridique, RH ou support.
Le droit s’est notamment emparé de la problématique à travers l’IA Act, entré en vigueur le 1eraoût 2024 et qui sera pleinement applicable à partir du 2 août 2026 (sachant que les règles entrent en application de manière graduelle).
Tous les outils utilisés dans le recrutement sont qualifiés comme des systèmes à haut risque – ce qui fait peser sur les déployeurs et concepteurs des obligations renforcées.
IA act, Annexe III, §4(a) « systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, en particulier pour publier des offres d'emploi ciblées, analyser et filtrer les candidatures et évaluer les candidats »
Enfin, après avoir pointé les principales difficultés auxquelles une entreprise peut être confrontée pour arriver à une utilisation conforme à l’IA Act (comme l’absence d’une politique structurelle ou de collaborations entre services, le manque de formation adaptée… ) la chercheuse a partagé plusieurs leviers énumérés dans le règlement pour une utilisation de l’IA conforme à l’IA Act :
- prendre des mesures techniques et organisationnelles appropriées ;
- confier le contrôle humain à des personnes physiques qui disposent des compétences, de la formation et de l’autorité nécessaires ainsi que du soutien nécessaire.
Le règlement prévoit par ailleurs que « Lorsque les déployeurs ont des raisons de considérer que l’utilisation du système d’IA à haut risque conformément à la notice d’utilisation pourrait conduire à ce que le système d’IA présente un risque au sens de l’article 79, paragraphe 1, ils en informent, sans retard injustifié, le fournisseur ou le distributeur ainsi que l’autorité de surveillance du marché concernée suspendent l’utilisation de ce système » .
Annonce
Cette rencontre est à présent complète. Si vous souhaitez être inscrit·e sur liste d'attente, veuillez envoyer un e-mail à info@liegecreative.be.
L’essor de l’intelligence artificielle (IA) fait évoluer les pratiques des ressources humaines, en particulier dans le domaine du recrutement, en offrant à la fois des opportunités d’optimisation et en soulevant des enjeux éthiques, stratégiques et juridiques.
Comment l’IA redéfinit-elle les missions des RH ? Quels sont les avantages et les risques associés à son utilisation ? Quelles implications juridiques cela engendre-t-il ? Et surtout, comment adapter les pratiques pour répondre à ces évolutions ?
Cette conférence explorera les multiples impacts de l’intelligence artificielle sur les pratiques RH. Au-delà des promesses technologiques, nous nous appuierons sur des recherches récentes pour analyser les usages actuels de l’IA dans ce domaine : identification des impacts, outils utilisés, perception des risques et adaptation des comportements. Nous examinerons également la conformité de ces pratiques aux réglementations en vigueur, telles que l’IA Act, tout en mettant l’accent sur les biais discriminatoires potentiels.
Objectifs de Développement Durable
