En cartographiant l'IA et l'égalité, il est utile de développer de grandes catégories qui mettent en évidence des trajectoires distinctes montrant l'impact de l'IA sur les personnes et leurs relations les unes avec les autres, ainsi qu'avec notre environnement commun. Cette série de billets de blog a pour but d'alimenter la réflexion.
À ce jour, une grande attention a été accordée à la manière dont l'IA peut renforcer les formes existantes de préjugés, notamment ceux liés à la race, au sexe et aux handicaps, qui permettent un traitement injuste et inéquitable et limitent les opportunités. Par partialité, nous entendons les préjugés ou les déformations des faits qui placent un individu ou un groupe dans une situation désavantageuse ou le rendent impuissant. La justice et l'équité (souvent utilisées de manière interchangeable) peuvent être comprises au sens large comme le fait de donner à chaque personne ce qui lui revient sans aucun préjugé.
Malheureusement, les inégalités existantes en matière de genre, de race, d'ethnicité, d'éducation et de classe sont souvent intégrées dans la conception et le déploiement des applications d'IA. Par exemple, les préjugés inhérents aux sociétés et aux processus humains sont souvent reproduits dans les données existantes analysées et se reflètent donc dans les résultats de l'algorithme et dans la manière dont le système fonctionne. Il a été démontré que la tentative d'utiliser des algorithmes pour condamner des personnes reconnues coupables de crimes reproduit et renforce les préjugés existants, tels que ceux liés à la race et à la classe sociale(Artificial Intelligence, Justice, & Rule of Law, AIEI Podcast with Renee Cummings).
Si les biais algorithmiques sont désormais bien reconnus, la recherche de moyens efficaces pour traiter et atténuer leur impact n'en est qu'à ses débuts. Les éthiciens de l'IA sont particulièrement préoccupés par le déploiement d'outils d'IA biaisés et inexacts dans des domaines où des préjudices sociétaux peuvent être causés. L'utilisation par les forces de l'ordre de logiciels de reconnaissance faciale, qui comparent les points de données d'une photo d'un visage à une base de données de visages, produit un pourcentage significatif de faux positifs, souvent au détriment des moins favorisés d'entre nous.(Joy Buolamwini, Timnit Gebru, Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018. Anita Chabria, "Facial recognition software mistook 1 in 5 California lawmakers for criminals, says ACLU", LA Times, 2019). L'État de Californie a donc interdit aux forces de l'ordre et aux officiers d'installer, d'activer et d'utiliser toute forme de système de surveillance biométrique. (https://californiaglobe.com/articles/governor-newsom-signs-bill-banning-facial-recognition-technology-in-police-body-cameras/) Malheureusement, l'utilisation d'algorithmes biaisés dans les secteurs public et privé se poursuit et passe souvent inaperçue.
Néanmoins, il existe d'innombrables exemples de la manière dont les applications actuelles et futures basées sur l'IA peuvent réduire les inégalités et la pauvreté. PULA est une compagnie d'assurance africaine au service des petits exploitants agricoles. PULA s'attaque au problème de la sécheresse qui entraîne de mauvaises récoltes en Afrique une fois tous les dix ans environ, laissant de nombreux agriculteurs non seulement sans ressources, mais également incapables d'acheter des semences ou des engrais pour la prochaine saison de plantation. PULA a collaboré avec des entreprises de semences et d'engrais pour offrir une police d'assurance à chaque achat. Les agriculteurs enregistrent leur police par téléphone portable.
La couverture nuageuse est ensuite analysée par PULA à l'aide d'algorithmes d'apprentissage profond afin de déterminer quelles régions ont reçu des précipitations insuffisantes pour garantir des cultures saines. Les agriculteurs de ces régions reçoivent automatiquement un certificat leur permettant d'échanger des semences et des engrais pour la prochaine saison de plantation. Grâce à l'omniprésence des téléphones portables et à l'avènement des algorithmes d'apprentissage en profondeur, PULA a résolu le problème de la fourniture d'une assurance à faible coût aux agriculteurs pauvres qui n'étaient pas assurables par les moyens traditionnels. À ce jour, PULA affirme avoir assuré 5,1 millions d'agriculteurs et traité environ 39 millions de demandes d'indemnisation, et ces chiffres continuent d'augmenter.
Des histoires comme celle de PULA sont vraiment réconfortantes et sont souvent citées pour soutenir le déploiement à grande échelle des applications de l'IA, même lorsqu'elles peuvent reproduire des préjugés ou porter atteinte à la vie privée. À ce jour, on ne sait toujours pas si les façons positives dont les applications de l'IA, anciennes et prévues, peuvent améliorer les inégalités justifient réellement les nombreuses façons dont l'IA peut exacerber les inégalités.
Image par Gerd Altmann de Pixabay
Anja Kaspersen est Senior Fellow à Carnegie Council of Ethics in International Affairs. Elle a été directrice du Bureau des affaires de désarmement des Nations unies à Genève et secrétaire générale adjointe de la Conférence du désarmement. Auparavant, elle était responsable de l'engagement stratégique et des nouvelles technologies au Comité international de la Croix-Rouge (CICR).
Wendell Wallach est consultant, éthicien et chercheur au Centre interdisciplinaire de bioéthique de l'université de Yale. Il est également chercheur au Lincoln Center for Applied Ethics, membre de l'Institute for Ethics & Emerging Technology et conseiller principal au Hastings Center.