Lorsque l’on décrit un système d’intelligence artificielle, on a pour habitude de croire qu’il est neutre de toutes discriminations. Or, ces systèmes (SIA) sont pensés d’abord par des hommes ou des femmes qui vivent dans un contexte social et politique qui leur est propre. Selon la Ligue des Noirs du Québec, un organisme pour la défense morale et juridique des Noirs vivant dans la province canadienn, les cas de profilage racial de la part de la police sont régulièrement constatés. Les SIA qui sont déployées dans nos sociétés s’appuient sur des tissus sociaux déjà biaisés et sur des rapports de pouvoir déjà existants. Ce qui se traduit par une reproduction de certaines discriminations, voire une amplification de celle-ci. Nous avions déjà soulevé le fait que l’IA pouvait être sexiste ou misogyne; des études affirment aussi que l’IA serait raciste. Explications.
La discrimination par l’IA
Les SIA sont donc présentées comme des systèmes neutres et objectifs. Dans la réalité, ils excluraient certains populations dans certains cas, ou les « mettraient en avant » dans d’autres. Elle pourrait également identifier certaines populations comme problématiques, sans aucun élément autre que l’origine de l’individu. Lors d’un rapport publié en 2020, les chercheurs expliquaient que dans certains secteurs de la société, les SIA pouvaient se montrer racistes. Il semblerait que la majorité des algorithmes fonctionnent moins bien sur les visages noirs, asiatiques et amérindiens, et montrent des préjugés contre les femmes, les personnes âgées et les enfants. En fait, les visages « autres que blancs » entraînent de fausses incertitudes et des correspondances hasardeuses. Cette discrimination raciale se vérifie dans différents domaines : surveillance policière, embauches, scolarité, calculs de prêts immobiliers… D’ailleurs, en 2018 déjà, Amazon stoppait les embauches via l’IA car l’outil favorisait l’embauche d’hommes au détriment des femmes, une autre forme de discrimination.
L’IA affaiblirait-elle l’humanité ?
Si les SIA offrent de nombreuses possibilités, elles auraient aussi un point faible, celui de discriminer par l’âge, le sexe ou l’origine ethnique. Un système qui finalement affaiblirait l’Humanité et créerait encore plus de clivages qu’il n’en existe déjà. Une étude menée par les chercheurs Inioluwa Deborah Raji de l’Université de Toronto et Joy Buolamwini du MIT montre que ces systèmes dits intelligents auraient une fâcheuse tendance à préférer les hommes aux femmes, ou les personnes de couleur blanche aux personnes à la peau plus foncée. Dans une société où les clivages sont déjà nombreux, l’IA ne ferait donc que les renforcer.
Des discriminations diverses
Prenons l’exemple d’un entretien d’embauche où deux personnes se présentent à diplômes égaux. Si deux candidates se présentent (l’une blanche, l’autre noire), la personne de couleur noire a de fortes probabilités d’être recalée par le SIA. Idem, si l’IA doit choisir entre une femme jeune et une plus âgée… La plus âgée a de forts risques de voir le poste lui passer sous le nez malgré une expérience plus importante que la femme plus jeune.
Le pouvoir discriminant de l’IA serait dû à la collecte de données avec laquelle le cerveau électronique s’entraîne… Si les données fournies sont faussées par les choix du cerveau humain, alors l’IA apprend de fausses données, et les reproduit évidemment ! Cela sous entend que l’IA doit continuer à être contrôlée par l’Humain, tant qu’elle n’est pas capable de ne pas reproduire la discrimination faite par les humains… Et cela risque de prendre encore beaucoup de temps !