Sébastien Konieczny, Centre de recherche en informatique de Lens
Aylin Caliskan et son équipe de l’université Princeton ont eu recours à un programme nommé GloVe, une intelligence artificielle effectuant le test dit d’association implicite. Mis au point en 1998 dans le cadre d’études en psychologie, celui-ci évalue le degré d’association d’idées ou de concepts en mesurant le temps mis par une personne à former des paires de mots qu’elle estime semblables. Plus il est court, plus l’association est forte. Ainsi, si une personne associe plus rapidement le mot «bon» avec une «personne jeune» plutôt qu’avec une «personne âgée», ceci trahit une tendance à avoir des attitudes plus positives envers les jeunes qu’envers les vieux.
840 milliards de mots
En lieu et place d’un cobaye humain, c’est donc GloVe qui s’est prêté au jeu d’association d’idées. Ce programme est une IA basée sur le «machine learning», c’est-à-dire capable d’apprendre, à partir de nombreux exemples, à classer des informations selon des critères exigés par un humain. C’est sur ce type d’apprentissage que reposent notamment les algorithmes de reconnaissance d’images utilisés par Facebook ou Google. Pour entraîner GloVe, Aylin Caliskan l’a donc «nourri» avec un gigantesque corpus de 840 milliards de mots issus du Web, en 40 langues différentes. Ses réponses laissent songeur. Comme un être humain, le programme a associé des noms de fleurs à des connotations positives, tandis que des noms d’insectes, par exemple, ont été catégorisés plutôt négativement.
Lire aussi: Une voiture autonome doit-elle avoir le droit de tuer ses passagers?
Mais ces biais plutôt innocents ont été reproduits ailleurs, et de manière problématique. Des prénoms féminins ont ainsi été plus généralement mis de pair avec des termes liés à la famille (mère, mariage…) tandis que les prénoms masculins ont fini classés avec des mots liés à la carrière (profession, salaire…) De même, des noms à consonance européenne étaient plus volontiers classés positivement que ceux à consonance africaine. Les machines intelligentes naîtraient-elles donc sexistes et racistes?
Miroir du comportement humain
«Ces résultats ne me surprennent pas du tout, s’amuse Claude Touzet, spécialiste de l’apprentissage tant biologique qu’artificiel au Laboratoire de neurosciences intégratives et adaptatives de l’université d’Aix-Marseille. Les machines capables d’apprentissage sont un miroir du comportement humain. En les nourrissant avec un discours humain forcément biaisé, il est naturel qu’elles le reproduisent». «Si les données que l’on fournit à la méthode d’apprentissage sont biaisées, alors la machine apprend ces biais», enchérit Sébastien Konieczny, du Centre de recherche en informatique de Lens.
Les machines capables d’apprentissage sont un miroir du comportement humain
Claude Touzet, université d’Aix-Marseille
L’étude rappelle un épisode malheureux vécu par l’an passé par Microsoft. Après avoir mis en ligne sur Twitter une IA censée s’abreuver des conversations humaines, le géant de l’informatique avait dû lui couper le sifflet en catastrophe après que celle-ci, baptisée Tay, ne proférait plus que des abominations racistes et négationnistes, au bout de seulement quelques heures.
Mais Claude Touzet l’assure, «il est possible, dans un deuxième temps, de corriger ces IA, par exemple en lui imposant des lois».
Lire aussi: Tay, le robot devenu si humain
Plus facile à dire qu’à faire. Sébastien Konieczny y voit deux problèmes: non seulement on ne sait pas encore vraiment comment réguler ces algorithmes avec des règles éthiques et morales, pas plus – et c’est tout aussi inquiétant – qu’on ne comprend comment la machine a pris sa décision. De ce point de vue, «le deep learning reste une boîte noire», affirme le chercheur.
C’est là que le bât blesse. Des sociétés vendent déjà des logiciels basés sur le machine learning. Ils permettent par exemple de décider qui peut bénéficier d’un prêt bancaire, ou quel est le candidat le plus adapté à un poste vacant. Comment dès lors garantir à chacun un traitement équitable et non discriminatoire, alors que nul ne peut expliquer le raisonnement qui a conduit à telle ou telle décision?
Toujours est-il que la recherche en IA ne saurait se résumer au seul machine learning, rappelle Sébastien Konieczny. Une piste, conclut-il, serait d’associer ces algorithmes à d’autres méthodes permettant, elles, de rendre compte du raisonnement. Cela montre bien le travail qu’il reste à faire.