Les données utilisées par l’intelligence artificielle peuvent être entachées de biais car nous, humains — et nos failles – sommes biaisé·es.

C’est inéluctable, les humains font des raccourcis de la pensée, ces « erreurs mentales qui se retrouvent dans notre jugement et dans nos impressions ». C’est ce qu’on appelle biais cognitifs. Et comme les données qui nourrissent les systèmes d’intelligence artificielle proviennent des humains, on se retrouve avec une IA qui reflète les mêmes préjugés. Eh oui, les machines peuvent, elles aussi, avoir des réflexes de discrimination, et s’immiscer dans plusieurs secteurs, comme celui du recrutement ou de la santé par exemple, affectant les groupes minoritaires et marginalisés. C’est ce qu’on appelle le biais d’apprentissage automatique (ou biais d’algorithme ou encore biais d’intelligence artificielle).

Des exemples classiques
L’affaire Amazon reste l’une des erreurs les plus notables. En 2014, dans le but de l’aider dans son processus de recrutement interne, la multinationale a développé un outil intelligent pour trier les candidatures. À l’image d’un système de notation de produits sur son site, l’IA attribuait une note allant de 1 à 5 étoiles en fonction de la qualité du profil. Le hic ? Les candidatures féminines recevaient des évaluations plus basses. Cela découlait du fait que l’IA avait été entraînée sur une base de données de CV provenant d’employés recrutés sur une période de 10 ans, la plupart d’entre eux étant des hommes. Par conséquent, l’algorithme avait appris à favoriser les candidats masculins, pénalisant ainsi les curriculums vitae des candidates.

En 2019, des chercheur·euses ont découvert qu’un algorithme utilisé dans les hôpitaux américains pour prédire quel·les patient·es nécessiteraient des soins médicaux supplémentaires favorisait de loin les patient·es blanc·hes par rapport aux patient·es noir·es. L’algorithme avait été formé sur des données antérieures de dépenses de soins de santé, dans lesquelles les patient·es noir·es avaient moins de ressources à consacrer à des soins de santé par rapport aux patient·es blanc·hes, en raison des disparités de richesse et de revenus qui perdurent. Des chercheurs ont défini le biais algorithmique comme l’application d’un algorithme qui aggrave les inégalités existantes en matière de statut socio-économique, d’origine ethnique, de religion, de sexe, d’handicap ou d’orientation sexuelle et amplifie les inégalités dans les systèmes de santé. Autrement dit, ils ne se contenteraient pas simplement de refléter les inégalités sociales, mais pourraient les exacerber.

À l’origine des biais: les données
Une étude de McKinsey sur la lutte contre les préjugés montre que les données sous-jacentes, plutôt que la méthode elle-même, sont souvent à l’origine des biais de l’IA. Les modèles peuvent être formés à partir de données issues de choix humains ou de données issues de disparités sociales ou historiques ou par la manière dont elles sont collectées. Dans les modèles d’IA de justice pénale, notamment, le suréchantillonnage de zones particulières peut entraîner davantage de données sur la criminalité dans cette zone, ce qui pourrait conduire à davantage de répression. «Le problème, explique Maude Bonenfant, professeure au département de communication sociale et publique à l’UQAM et experte en IA, réside dans les jeux de données utilisés pour l’entraînement des algorithmes. C’est là où se trouvent les biais.»

Alors, comment peut-on les limiter selon le contexte ? D’après la professeure, il faudrait intervenir sur les données d’entraînement des algorithmes. «Il faut signaler à l’algorithme lorsqu’il favorise un biais pour équilibrer l’entraînement. En agissant sur les données, l’algorithme peut apprendre à éviter de reproduire ces biais et apprendre à s’en défaire.» Prenons l’exemple d’un algorithme de recrutement favorisant les hommes blancs éduqués. «On peut corriger cela en introduisant des paramètres indiquant que les femmes, les personnes racisées et celles vivant avec un handicap doivent aussi être favorisées. On vient ainsi intervenir dans le processus d’apprentissage de l’algorithme pour que le biais qui favorise les hommes blancs éduqués soient équilibrés avec d’autres paramètres. Cela permet de refléter une équité dans les données et, par conséquent, de changer les choses dans la vie réelle.» En fin de compte, détaille Maude, «il s’agit de comprendre à partir de quelles données les algorithmes ont été formés et d’identifier les biais pour voir comment ils peuvent être corrigés, que ce soit en introduisant de nouveaux paramètres ou en manipulant les données pour influencer l’apprentissage de l’algorithme.»

maudeMaude Bonenfant

L’IA sera-t-elle un jour impartiale ?
À la question si l’intelligence artificielle peut être impartiale un jour, Maude est catégorique. Non. «Elle ne pourra jamais être impartiale. C’était le rêve initial dans les années 50. Avoir une technologie plus objective, impartiale, qui éviterait les erreurs humaines. À la sortie de la Seconde Guerre mondiale, on était fortement traumatisé·es par les horreurs de la guerre et jusqu’où les humains pouvaient aller dans l’horreur. On avait espoir que les ordinateurs allaient nous aider à prendre de meilleures décisions et que ce serait plus objectif sans intervention humaine, mais on se rend compte que la technologie est le reflet de ce que nous sommes, comme êtres humains. Les biais en sont un excellent exemple. Et les technologies seront toujours produites par nous et il y aura toujours une partialité inscrite dans les technologies par ceux et celles qui les développent, mais aussi à ceux·celles qui s’en servent et qui ont accès aux technologies, qui peuvent en bénéficier, etc. On voit déjà que c’est partial parce l’accès aux technologies est inégal. L’idéologie est aussi inscrite dans ces technologies-là. Donc, non, ce sera impossible qu’elle soit impartiale», résume la professeure.

Mais que signifie être juste, au juste ? Si nous, humains, qui répétons inlassablement les mêmes erreurs — et horreurs — comme en témoignent le contexte mondial actuel, comment demander à une intelligence artificielle d’être fair play alors que nous avons nous-mêmes du mal à l’être ?

robot