Recrutement : les artifices de l’intelligence artificielle

Paroles d'expert

15 janvier 2020

Être sceptique sur ses vertus serait être passéiste. Selon les bavardages des réseaux sociaux, l’intelligence artificielle va tout changer à nos modes de recrutements : ils seront plus efficaces, plus rapides, plus objectifs, bref, plus intelligents.

Nous ne le contesterons pas, l’intelligence artificielle est capable de traiter en quelques instants des milliers de candidatures. Tant mieux. Tant mieux pour ceux qui disposent d’un tel vivier, des bienheureux concernés en rien par les tensions du marché du travail. Tant mieux pour eux donc. Et tant pis pour les personnes qui postuleraient en masse au même poste ! Mais y en a-t-il ? Si oui, celles-là, elles auraient tout intérêt à percer les secrets des algorithmes qui dépèceront leur âme. Bonne chance à elles. Car nous y reviendrons, même les concepteurs de ces logiciels échouent à comprendre les raisonnements de leur machine !

C’est le progrès

Avoir à traiter des quantités décourageantes de candidatures est chose rare. Et sera plus rare encore, on le devine, s’il est connu qu’un recrutement sera informatisé. Une perspective dissuasive. On imagine des piles de CV triés numériquement en quelques secondes, selon des critères bornés et définitifs. On imagine encore les heureux élus (heureux, mais nombreux) “reçus en entretien”… par une caméra ! Mis en posture de se valoriser devant l’œil rond et inexpressif de l’informatique. Dont ils savent qu’elle s’emploiera à codifier mathématiquement leurs propos, leurs attitudes, leurs moindres mimiques…

C’est l’avenir nous assure-t-on, le progrès, inéluctable…

Gageons pourtant que, longtemps encore, nous serons nombreux à le penser, un recrutement intelligent, c’est d’abord une rencontre entre deux personnes, entre deux sujets, une rencontre chaque fois unique entre deux personnalités uniques, une rencontre humaine donc, un temps fort qui suppose… du temps.

On peut convaincre un algorithme, on ne peut le séduire. Les tenants d’une objectivité dépersonnalisée s’en réjouiront. Pas ceux qui savent combien une relation de travail réellement fructueuse est souvent étayée par la qualité de la relation personnelle – intersubjective. Je ne le calcule pas, disent certains jeunes. Sans eux prétendre à une froideur de computer.

Mais parlons d’objectivité.

Avec Steve Wozniak par exemple, cofondateur d’Apple. Lui ne décolère pas. L’objet de son courroux : l’Apple Card, la carte de crédit lancée en août 2019 (précisément par la société qu’il a créée). Il l’accuse d’une discrimination sauvage envers les femmes.

Une objectivité sexiste

Tout commence ce 7 novembre passé. C’est David Heinemeier Hansson qui lâche les chiens, un entrepreneur danois respecté et reconnu notamment pour avoir créé le système de développement Ruby on Rails. « L’Apple Card est vraiment un putain de programme sexiste, s’insurge-t-il sur Tweeterma femme et moi-même déclarons nos impôts conjointement et nous sommes mariés depuis très longtemps. Et pourtant l’algorithme “boîte noire” d’Apple pense que j’ai le droit à une limite de crédit 20 fois plus élevée qu’elle ».

C’est ce qu’on appelle mettre le feu !

Seulement trois jours plus tard, Steve Wozniak lui-même fait irruption dans le débat – oui, le cofondateur de la société Apple.

« Nous n’avons pas de comptes bancaires séparés, ni de cartes de crédit, ni d’actifs d’aucune sorte, écrit Steve Wozniak au sujet de son couple. Nous avons tous les deux les mêmes limites élevées sur nos cartes […]. Mais la différence est multipliée par 10 sur la carte Apple. »

Une discrimination imbécile imputable à des algorithmes vantés comme des merveilles d’intelligence artificielle. C’est benêt ça !

Vos échecs et vos péchés

David Heinemeier Hansson accuse. « L’ALGORITHME est toujours supposé juste et correct. Son verdict est donc prédestiné à être le reflet de vos échecs et de vos péchés ».

Le ver est dans le fruit, le diable dans l’algorithme, le feu dans la maison Apple…

La situation devient embarrassante pour la multinationale. Habituée à contrôler de bout en bout la chaîne de production de ses produits et de ses services, elle ne maîtrise rien des éléments fondamentaux de sa carte, telle la limite des crédits autorisés pour chacun. Goldman Sachs (la banque partenaire) ne donne pas plus l’impression de dominer ses algorithmes. Leur logique échappe à leurs créateurs.

Des algorithmes pourtant infiniment plus simples que ceux attachés au recrutement. La complexité des critères financiers et comptables, même sophistiqués, ne rivalisent en rien avec celle inhérente à l’évaluation d’une personnalité.

Pourtant, déjà en matière comptable, le machine learning (l’ordinateur apprend automatiquement) engendre des décisions inexplicables et sans recours. Les informaticiens eux-mêmes deviennent incapables d’identifier les critères de décisions, le cheminement intellectuel de la machine. Elle combine des postulats sans que l’on puisse savoir quelle logique elle emprunte. Personne n’est plus en mesure d’expliquer les choix, de les justifier.

Ni de comprendre les biais qui sous-tendent les décisions de l’Apple Card, ou de tout autre système d’intelligence artificielle.

Que dire du logiciel qui interprètera uniformément le langage non verbal des candidats qui défileront devant sa caméra !

Comment évaluera-t-il les mimiques et intonations d’un chinois ? d’un latin ? d’une femme ? Quels écarts mesurera le logiciel ? Et des écarts à quelles normes, à quel standard ?

En Afrique Subsaharienne, il est d’usage de pointer fermement du doigt celui que l’on veut convaincre. Une machine civilisée dénoncera l’agressivité d’un candidat coutumier de cette gestuelle et pourtant seulement chaleureux – à la mode africaine !

Les multinationales étatsuniennes s’y emploient, mais le langage, et notamment le langage non verbal, n’est pas encore mondialisé, uniformisé.

“Nous devrions tous être meilleurs que ça”

L’intelligence humaine peut être créative, imaginative, innovante… voire transgressive. L’intelligence artificielle est par nature normative.

Les données accumulées (big data) sont celles du passé. Le machine learning apprend du passé. Dont certes on ne peut rien changer. Qui certes ne changera plus. Mais qui ne mérite pas pour autant d’être institué en vérité indépassable – de toujours ! Pourtant, le machine learning conjugue notre futur au passé. Il est par nature aveugle aux évolutions. Sous sa gouvernance, le passé devient un engrenage.

Un exemple simpliste.

À ce poste prestigieux, depuis des années, les hommes sont plus nombreux à avoir réussi, le big data est formel, beaucoup plus nombreux que les femmes à avoir réussi. Voilà un métier que l’intelligence artificielle ne contribuera pas à féminiser, à ouvrir…

L’intelligence humaine est capable d’imaginer des exceptions, pour le moins un avenir différent du passé. Pas l’intelligence artificielle.

Laissons la conclusion à Jamie Heinemeier Hansson (épouse de David Heinemeier Hansson, le lanceur d’alertes concernant le sexisme de la carte d’Apple). « Nous ne pouvons pas nous incliner face aux algorithmes. Nous ne pouvons pas dériver vers un monde à la Black Mirror. Apple peut et doit être meilleur que ça. Nous devrions tous être meilleurs que ça. »

Nous signons résolument. Nous signons des deux mains. Nous devrions tous être meilleurs que ça…

Notamment le temps d’un recrutement, quand se jouent la vie professionnelle d’une personne, et l’avenir d’une entreprise.

Stéphane Chekroun

shape
shape