L’IA peut-elle éliminer les biais dans le processus de recrutement ?
Oui, d’après des observateurs qui pensent qu’elle supplante l’humain
Dans le cadre de la reconnaissance faciale, l’intelligence artificielle suscite beaucoup de controverses. Tenez par exemple, une récente publication publication de l’American Civil Liberties Union (ACLU) fait état de ce qu’une IA d’Amazon a, à tort, identifié 28 membres du congrès des États-Unis comme des criminels. Il n’empêche que cet ensemble de techniques a la faveur de certains observateurs sur le terrain du recrutement.
En juillet 2016, la multinationale anglo-néerlandaise Unilever a introduit l’intelligence artificielle à son processus de recrutement. Même son de cloche pour Entelo et Stella.ai qui font leur apparition après Unilever avec des plateformes en ligne d’automatisation du processus de recrutement basées sur l’intelligence artificielle. Ces entreprises vantent la technique pour sa capacité à opérer une extraction pertinente des candidats en s’appuyant sur la science des données. Dans le cas Unilever, les responsables soulignent que la technique a permis d’augmenter significativement l’embauche de candidats non blancs, mais aussi d’apporter plus de diversité en termes de genre et de milieu social d’origine.
L’aspect qui s’imbrique au précédent est celui de la neutralité que ces dernières lui attribuent. « L’algorithme effectue uniquement des correspondances sur la base des données qui lui sont fournies . Il ne scrute que les compétences et les industries », déclare Rich Joffe – CEO de Stella.ai.
Il faut le reconnaître, parcourir une pile de CV à la recherche de la perle rare est un exercice fastidieux et parfois improductif. Lorsqu’il faut effectuer une tâche de façon répétitive et sur la durée, un ordinateur est assurément mieux outillé. C’est probablement la raison pour laquelle Rich Joffe a ajouté que « bien qu’aucun algorithme ne soit livré avec une garantie d’infaillibilité, je crois qu’ils sont meilleurs que les humains. »
Seulement, dans un contexte où moins de 5 % des chefs d’entreprise du Fortune 500 sont des femmes, où la diversité raciale à la tête du même groupe d’entreprise est à questionner, l’argument de la neutralité de l’intelligence artificielle est mis à mal. Le fait est qu’ « identifier des candidats à forts potentiels est une tâche très subjective » comme le rappelle Alan Todd – CEO de CorpU. Il vient donc que l’intelligence artificielle peut exhiber les biais des programmeurs qui l’ont conçu. La question divise profondément au sein de la communauté de l’intelligence artificielle ; l’on n’arrive pas à tomber d’accord sur les caractéristiques de l’algorithme capable de rendre le processus de recrutement plus équitable.
L’intelligence artificielle à même de sortir l’homme du processus de recrutement de façon totale ? Il semble que ce ne soit pas pour demain. Pour le moment, les solutions adoptées en entreprise s’appuient sur le jumelage des capacités de l’homme à celles de la machine, en entendant ce fameux jour où l’ordre des choses va totalement s’inverser en faveur des ordinateurs.
Source : Bloomberg
Et vous ?
Avez-vous déjà eu à passer un entretien d’embauche avec une IA comme recruteur ? Partagez votre expérience. Quels sont les aspects qui vous ont plu (horripilé) ?
Est-il possible de créer une intelligence artificielle qui n’exhibe pas de biais ?
Voir aussi :
La Chine veut devenir leader mondial de l'intelligence artificielle avec un plan de développement national visant à augmenter son poids économique
Les chercheurs en intelligence artificielle peuvent-ils gagner jusqu'à 1 million $ par an dans la Silicon Valley ? Un aperçu des salaires
L'intelligence artificielle est-elle l'arme de la prochaine guerre froide ? Oui, répond un chercheur en informatique
Trolldi : cinq dangers émanant de l'utilisation de l'intelligence artificielle et la robotique
Des chercheurs du MIT créent la première intelligence artificielle psychopathe pour illustrer le problème de biais des données nourries aux IA
Partager