Les principes éthiques sont vastes et généraux, alors que chaque application individuelle de l'intelligence artificielle (IA) est concrète et spécifique. L'opérationnalisation des principes éthiques dans la pratique est un défi pour toute personne impliquée dans le développement de l'IA.
Avant d'exposer mon approche, permettez-moi de vous poser une question honnête : Pourquoi êtes-vous intéressé ? Êtes-vous déterminé à améliorer le monde ? Ou voulez-vous simplement devenir meilleur dans l'utilisation du langage de l'éthique pour justifier les choses que vous faites de toute façon ?
À l'initiative "Intelligence artificielle et égalité" (AIEI) de Carnegie Council, nous voulons réinventer la façon dont les personnes travaillant dans le domaine de l'intelligence artificielle envisagent l'éthique. Le problème n'est pas que l'éthique n'est pas discutée - elle l'est. Le problème, c'est que de nombreux acteurs de la technologie sont devenus trop à l'aise pour parler d'éthique. Ils considèrent qu'il s'agit simplement de faire de la politique par d'autres moyens.
En apparence, il y a des similitudes. Les critiques éthiques de l'industrie peuvent ressembler à des critiques politiques. Elles peuvent toutes deux conduire à des contraintes et à des contrôles. Mais être bon en politique signifie quelque chose de très différent d'être bon en éthique.
Dans le domaine de l'éthique des affaires, l'IA peut être mise en garde. Il y a plusieurs décennies, lorsque les écoles de commerce ont commencé à enseigner l'éthique des affaires, elles espéraient équiper les étudiants pour qu'ils fassent des affaires de manière plus éthique. Dans la pratique, les étudiants sortent aujourd'hui de ces cours avec les outils nécessaires pour se défendre contre les critiques en présentant des arguments convaincants pour démontrer que leur entreprise est éthique, même si elle ne l'est pas. En d'autres termes, ils sont compétents en matière de politique, et non d'éthique.
Que signifie donc être compétent en matière d'éthique ? Je considère l'éthique comme une façon d'aborder le défi que représente la navigation dans l'incertitude. Lorsque l'on ne dispose pas d'une vue d'ensemble, les valeurs éthiques peuvent guider la manière d'agir. Les valeurs nous permettent de calibrer nos ambitions et nos incertitudes. Le domaine de l'IA est rempli d'incertitudes, qu'il s'agisse du manque de transparence dans la manière dont un système intelligent traite les données ou de l'incapacité à prédire comment une application, telle qu'une plateforme de médias sociaux, évoluera et aura un impact sur la société dans laquelle elle a été déployée.
Tous les choix comportent des compromis. Les personnes qui mettent bien en œuvre l'éthique sont sensibles à la nature de ces compromis. Elles perçoivent les tensions qui existent sous la surface. Elles anticipent les effets potentiellement néfastes des choix qu'elles pourraient faire et cherchent des moyens de les atténuer.
Au début de cet article, j'ai posé une question honnête sur les raisons qui vous poussent à le lire. Permettez-moi maintenant de vous en poser une autre : Qu'avez-vous ressenti en répondant à cette question ? Peut-être avez-vous été dédaigneux : "Bien sûr, je veux améliorer le monde". Peut-être vous êtes-vous arrêté un instant pour regarder en vous-même : "J'espère que je ne rationalise pas ce qu'implique mon travail. Est-il possible que je le fasse ?"
Si vous vous êtes senti instinctivement curieux de vos propres motivations, je dirais que vous êtes sur la bonne voie pour rendre l'éthique opérationnelle dans votre travail. Si vous êtes sur la défensive, c'est peut-être que vous ne l'êtes pas.
Que nous en soyons conscients ou non, il existe toujours une tension entre l'endroit où nous sommes et l'endroit où nous voudrions être. Pour s'engager pleinement dans un travail, il faut soit avoir la volonté de supprimer la tension, soit se sentir véritablement à l'aise dans ce que l'on fait. J'essaie d'aborder chaque dilemme éthique en sentant quelle option mène à un apaisement naturel de l'esprit. Comment pouvons-nous répondre au défi qui se présente à nous de manière à ne pas avoir à y réfléchir davantage et à y accorder plus d'attention qu'il n'en faut pour régler les détails ?
Cela demande de la pratique et de la discipline - mais dans un premier temps, nous pouvons essayer de faire preuve d'humilité. Nous devons comprendre dans quelle mesure nous sommes tellement convaincus de ce que nous faisons que nous bloquons d'autres points de vue qui pourraient enrichir notre vision du monde. C'est la différence entre une entreprise qui invite et écoute véritablement les voix critiques et une entreprise qui nomme un comité consultatif d'éthique qui coche les cases - genre et géographie - mais ne soulève jamais de questions difficiles.
Les universitaires vous diront que, d'une manière générale, il existe trois écoles d'éthique. La déontologie affirme que le bien consiste à suivre des règles. L'utilitarisme considère que la bonne chose est celle qui fait le plus grand bien. Enfin, il y a l'éthique de la vertu, qui affirme que si l'on s'attache à cultiver son caractère, on fera alors ce qu'il faut.
L'éthique de la vertu est revenue à la mode dans le domaine de la technologie. Une vision du monde internationaliste libérale étant généralement considérée comme vertueuse, les technologies développées par des entreprises aux valeurs internationalistes libérales ne peuvent que rendre le monde meilleur.
Malheureusement, ce n'est pas vrai. Nous développons l'IA d'une manière qui ne fait souvent qu'empirer les choses : déstabilisation des démocraties, aggravation des inégalités ou dégradation de l'environnement. De nombreux acteurs du secteur se sont enfermés dans l'esprit du temps, rationalisant leurs doutes.
Pour intégrer efficacement l'éthique, les vertus que nous devons cultiver sont différentes : la conscience de notre résistance personnelle à s'ouvrir aux autres et le courage d'inviter des perspectives diverses dans les processus de prise de décision collective.
Pour en savoir plus sur l'IA et l'égalité, ainsi que sur l'histoire personnelle de Wendell Wallach, consultez son podcast de mai 2021 avec Anja Kaspersen, "Creative Reflections on the History & Role of AI Ethics" (Réflexions créatives sur l'histoire et le rôle de l'éthique de l'IA).
Wendell Wallach est Carnegie-Uehiro Fellow à Carnegie Council for Ethics in International Affairs. Avec Anja Kaspersen, Senior Fellow, il codirige la Carnegie Artificial Intelligence and Equality Initiative (AIEI), qui cherche à comprendre les innombrables façons dont l'IA a un impact sur l'égalité et, en réponse, à proposer des mécanismes potentiels pour garantir les avantages de l'IA pour tous.