Le monde du recrutement vit une révolution : était-il possible pour les recruteurs de rêver de mieux que d’outils leur permettant d’évaluer un candidat avant de l’engager ? En effet, il est désormais possible de prédire leur performances et capacités grâce à des jeux sérieux ou intelligents, des mises en situations réelles, ou encore des tests de personnalité.
L’utilisation de ces outils est tentante puisqu’elle permet de réduire le risque d’engager un candidat qui ne conviendrait pas.
Les outils existants
Les méthodes d’évaluations sont variées. Les plus fréquemment utilisées sont les suivantes :
- Questionnaires de personnalité,
- Tests d’aptitude / intelligence numérique,
- Teste d’intelligence verbale,
- Jeu de rôle,
- Exercice de groupe…
Le cadre : le RGPD
Même si aucun texte législatif spécifique ne régule leur utilisation, les outils d’évaluation ne peuvent pas être utilisés à tout-va.
En effet, les résultats des évaluations sont des données à caractère personnel, ils doivent donc être traités conformément au RGPD.
Afin de justifier le traitement de ces données, le recruteur doit dès lors s’appuyer sur une base de licéité. Le consentement et l’exécution des mesures précontractuelles ne pouvant servir de fondement légal au traitement étant donné les rapports de pouvoir existant entre un futur l’employé et l’employeur, ce dernier doit motiver son traitement sur base de son intérêt légitime (article 6. 1. f du RGPD).
Le recruteur doit notamment être en mesure de prouver que les données récoltées et découlant des tests réalisés sont nécessaires et pertinentes eu égard aux besoins de la fonction à pourvoir.
Le principe de transparence est également de mise, étant donné que les candidats doivent toujours être informés avant l’évaluation sur les méthodes utilisées.
Par ailleurs, les critères pour procéder à une analyse d’impact seront fréquemment réunis.
Enfin, il est important de mentionner que les méthodes d’évaluation utilisées ne doivent pas être scientifiquement contestées. Par exemple, un candidat ne pourra jamais être évalué sur base de son signe astrologique, sur base de sa date de naissance et des principes de numérologie, ou encore sur base de la psycho-morphologie.
Nouveau cadre : le Règlement IA
Depuis l’entrée en vigueur du Règlement IA (AI Act – RIA), un cadre spécifique s’applique aux systèmes d’IA utilisés dans le recrutement.
Les outils d’évaluation automatisée des candidats sont classés comme “systèmes à risque élevé” (annexe III RIA). Cette classification entraîne des obligations supplémentaires :
- Vérifier que l’outil répond aux exigences de conception imposées par l’RIA (qualité, robustesse, absence de biais).
- Constituer et conserver une documentation technique complète, décrivant le fonctionnement de l’outil, les données d’entraînement et les résultats des tests.
- Informer clairement le candidat de l’usage d’un système d’IA et expliquer la logique générale de l’évaluation.
- Mettre en place une surveillance humaine, afin qu’aucune décision finale ne repose uniquement sur l’algorithme.
- Évaluer régulièrement l’outil pour détecter les biais ou effets discriminatoires et les corriger si nécessaire.
- Notifier les incidents ou dysfonctionnements aux autorités de contrôle lorsque ceux-ci affectent la fiabilité ou la sécurité du système.
Ces exigences complètent les obligations du RGPD.
Conséquences pratiques pour les employeurs
L’utilisation d’un outil de recrutement basé sur l’IA doit être précédée :
- D’une analyse de conformité au Règlement IA, pour vérifier que l’outil est certifié et qu’il respecte les normes applicables.
- D’une analyse des risques afin de mesurer les impacts potentiels sur les droits fondamentaux des candidats.
- De procédures internes, pour encadrer l’usage de l’IA, conserver les documents techniques et former les équipes RH.
- D’une information claire des candidats, afin qu’ils sachent qu’un système automatisé est impliqué dans leur évaluation.
Unsere Empfehlung:
Nous conseillons aux recruteurs et aux employeurs d’agir avec prudence avant d’intégrer un test automatisé dans leur processus de sélection.
Vérifiez si l’outil inclut une composante d’intelligence artificielle et, dans ce cas, assurez-vous de sa conformité au Règlement IA.
Nous recommandons également :
- de mener une analyse d’impact (PIA) lorsqu’un risque élevé est identifié ;
- de demander au fournisseur des garanties sur la fiabilité de l’outil, ses mécanismes de supervision humaine et sa documentation ;
- de sensibiliser les équipes de recrutement pour qu’elles considèrent les résultats comme un simple élément d’évaluation et non comme une vérité absolue.
L’IA doit rester un outil d’aide à la décision, et non un substitut à l’évaluation humaine.
