Comment faire en sorte que les technologies actuellement développées soient utilisées pour le bien commun, plutôt que pour le bénéfice de quelques privilégiés ?
Lorsqu'on a demandé à ChatGPT ce que les progrès de l'intelligence artificielle signifiaient pour la condition humaine, l'entreprise a répondu que l'IA "changerait la façon dont les gens perçoivent leurs propres capacités et compétences et modifierait leur perception d'eux-mêmes". Elle pourrait "avoir un impact sur le sens de l'identité et de l'objectif". Elle pourrait "modifier la manière dont les gens nouent et entretiennent des relations et avoir un impact sur leur sens de la communauté et de l'appartenance". Les progrès réalisés en 2022 par l'IA générative, qui comprend de grands modèles de langage tels que ChatGPT et des générateurs d'images tels que Dall-E, sont impressionnants. Lorsqu'elle nous avertit avec éloquence de son impact potentiel sur le sentiment d'identité, d'utilité et d'appartenance de l'être humain, nous sommes naturellement impressionnés. Mais les grands modèles de langage ne peuvent nous rendre que ce que nous leur avons transmis. Grâce à des techniques d'association statistique et d'apprentissage par renforcement, l'algorithme qui sous-tend ChatGPT peut repérer et régurgiter des mots et des concepts perspicaces, mais il ne comprend pas la profondeur du sens de ces mots et de ces concepts.
Joseph Weizenbaum, considéré comme un pionnier des sciences informatiques et créateur en 1965 du programme informatique de conversation ELIZA, qui a confondu certains utilisateurs en leur faisant croire qu'il était humain, a mis en garde contre la "pensée magique" concernant le potentiel de la technologie à améliorer la condition humaine. Lorsque nous avons des attentes irréalistes quant à la capacité d'une technologie à résoudre des problèmes, nous pouvons oublier de réfléchir profondément à ses limites et à ses impacts négatifs potentiels. Plus tard, M. Weizenbaum a déclaré qu'il était profondément préoccupé par le fait que les personnes qui utilisaient ELIZA ne comprenaient pas pleinement qu'elles interagissaient avec un ordinateur, ou par la tendance inhérente à l'être humain à se fier à la technologie sans esprit critique. Il a perçu cela comme un manquement moral dans une société qui se nourrit de récits réductionnistes.
Hannah Arendt, théoricienne politique d'avant-garde, a affirmé dans son livre La condition humaine, paru en 1958, que certaines expériences - qu'elle appelle le travail, l'œuvre et l'action - confèrent à l'homme son sens de l'identité et de la dignité. Saper cette dignité est une grave erreur. Dans le discours actuel sur l'IA, nous constatons une incapacité généralisée à comprendre pourquoi il est si important de défendre la dignité humaine. Le risque existe de créer un monde dans lequel le sens et la valeur sont retirés de la vie humaine.
En 2023, nous devrons avoir un débat intellectuellement honnête sur la valeur et les limites des systèmes d'IA qui s'intègrent rapidement dans notre vie quotidienne, et sur la manière dont nous nous comprenons nous-mêmes dans l'interaction avec ces systèmes.
Les plateformes de médias sociaux constituent un exemple édifiant. Alors qu'elles étaient initialement louées pour leur potentiel de rapprochement, leurs nombreux et néfastes inconvénients sont devenus si profondément ancrés dans notre mode de fonctionnement et dans celui de la société dans son ensemble qu'il est difficile d'imaginer des moyens de déraciner la militarisation de la vérité et l'"aliénation" qui divisent les sociétés et les gens. Les plateformes de médias sociaux pourront-elles un jour tenir les promesses qu'elles ont tenues par le passé ou n'était-ce là qu'une illusion ?
Dans quelques années, nous pourrions regretter que l'IA générative ait eu le même impact destructeur sur l'éducation que les médias sociaux sur la vérité. Les étudiants soumettent les résultats de ChatGPT sans les éditer, et les éducateurs se démènent pour proposer des devoirs que ChatGPT ne peut pas être utilisé pour contourner. Même si ces modèles de langage sont très éloignés de toute forme d'intelligence artificielle générale dotée d'un raisonnement de bon sens et de la capacité de comprendre ce qu'elle fait, leur importance est indéniable.
Mais les résultats des modèles d'IA générative sont encore loin de représenter l'intelligence collective, et encore moins la sagesse. C'est pourquoi, en 2023, nous devons chercher à développer un nouveau paradigme qui facilite la résolution collaborative des problèmes, en intégrant le meilleur de l'intelligence des machines et de la sagesse humaine. La structure d'incitation pour la recherche sur l'IA et le déploiement d'applications devrait être réorientée de la technologie qui remplace le travail humain vers des applications qui augmentent et développent l'intelligence collective et collaborative. Pour que cela se concrétise, nous devons nous interroger : À quoi ressemble une réinitialisation complète et globale et comment la rendre possible ?
Au cours des dernières années, le discours sur l'éthique de l'IA a tourné autour de deux questions que nous avons déjà abordées. Comment l'IA va-t-elle changer ce que signifie être humain ? Et comment pouvons-nous gérer les compromis entre les façons dont l'IA améliore et détériore la condition humaine ?
Ces questions sont liées à une troisième question qui ne reçoit pas l'attention nécessaire : Qui gagne et qui perd lorsque des systèmes fondés sur l'IA sont déployés dans tous les secteurs de l'économie ? La révolution actuelle des données et des algorithmes redistribue le pouvoir d'une manière qui ne peut être comparée à aucun changement historique antérieur. Les structures d'incitation orientent le déploiement de l'IA vers des applications qui exacerbent les inégalités structurelles : L'objectif est généralement de remplacer le travail humain, plutôt que d'améliorer le bien-être humain.
Dans les révolutions industrielles passées, les machines ont également remplacé le travail humain, mais les gains de productivité n'ont pas tous profité aux propriétaires du capital - ces gains ont été partagés avec la main-d'œuvre par le biais d'emplois et de salaires améliorés. Aujourd'hui, pour chaque emploi automatisé, tous les gains de productivité reviennent aux propriétaires du capital. En d'autres termes, à mesure que les systèmes d'IA réduisent l'éventail des tâches que seuls les humains peuvent accomplir, les gains de productivité ne profitent qu'aux propriétaires des systèmes, c'est-à-dire à ceux d'entre nous qui détiennent des actions et d'autres instruments financiers. Et comme nous le savons tous, le développement de l'IA est largement contrôlé par un oligopole de leaders de la technologie qui disposent d'un pouvoir démesuré pour dicter son impact sociétal et notre avenir collectif.
En outre, les applications de l'IA sont de plus en plus développées pour suivre et manipuler les humains, que ce soit à des fins commerciales, politiques ou militaires, par tous les moyens disponibles, y compris la tromperie. Risquons-nous de devenir les robots que l'IA est censée manipuler ?
Nous devons commencer à réfléchir à l'IA de manière globale, et non pas au coup par coup. Comment pouvons-nous nous assurer que les technologies actuellement développées sont utilisées pour le bien commun, plutôt que pour le bénéfice de quelques privilégiés ? Comment pouvons-nous inciter les entreprises à déployer des modèles d'IA générative de manière à doter les employés de compétences plus approfondies et très précieuses, au lieu de les rendre superflus ? Quel type de structure fiscale découragera le remplacement des travailleurs humains ? Quelles politiques publiques et quels indices sont nécessaires pour calculer et redistribuer les biens et les services aux personnes touchées par le chômage technologique et l'impact environnemental ? Quelles limites devraient être imposées à l'utilisation de l'IA pour manipuler le comportement humain ?
Pour aborder de telles questions, il faut briser ce que le sociologue Pierre Bourdieu et l'anthropologue, journaliste et auteur Gillian Tett appellent les "silences sociaux", c'est-à-dire le fait qu'un concept soit largement considéré comme tabou ou ne fasse pas l'objet d'un débat ouvert. Dans le domaine de l'IA, les silences sociaux entourent les risques potentiels et les impacts négatifs, du déplacement d'emplois à l'érosion de la vie privée et à l'exclusion de diverses voix des discussions sur le développement et le déploiement des systèmes d'IA. L'attention portée à l'éthique de l'IA est un début, mais à ce jour, elle n'a eu qu'un impact limité sur la conception des nouveaux outils développés et déployés.
Lorsque les risques ne sont pas largement débattus, il est impossible de prendre des mesures pour les atténuer. Les silences sociaux peuvent perpétuer les inégalités, miner l'empathie entre les différents groupes et contribuer aux conflits sociaux. Lorsque les différents points de vue ne sont pas représentés dans les discussions sur les technologies, celles-ci ne peuvent pas être remises en question efficacement avant - ou même après - leur intégration dans la société.
La question des silences sociaux renvoie à une question plus profonde : Qui décide de ce dont nous parlons et de ce dont nous ne parlons pas en matière d'IA ? Le développement de l'IA ne se limite pas à la technologie elle-même : les récits que nous utilisons pour discuter de l'IA sont également importants. Les récits dominants sont ancrés dans le "scientisme", une croyance selon laquelle les systèmes qui supposent l'intelligence humaine peuvent être réduits à la physique et recréés à partir de la base. Le scientisme fonctionne comme une théologie qui fausse la façon dont nous comprenons ce que les technologies peuvent et ne peuvent pas faire. Il ignore le rôle que les humains peuvent et doivent jouer dans l'orientation de l'évolution technologique, ou bien il abandonne ce rôle à ceux qui ont le plus à gagner d'une culture dominée par les possibilités offertes par l'IA.
Hannah Arendt, déjà citée, a parlé de la "banalité du mal", c'est-à-dire de la façon dont des individus ordinaires peuvent être utilisés et complices d'actes répréhensibles sans réaliser pleinement les conséquences de leurs actions.
Dans cette optique, ceux qui travaillent dans la recherche, le développement et le déploiement de systèmes d'IA sont désormais la première ligne de défense contre les applications d'IA potentiellement pernicieuses et dangereuses. La plupart des législateurs ne comprennent peut-être même pas les systèmes tels que ChatGPT. Même s'ils les comprenaient, leur approche serait compromise par l'impératif politique perçu de défendre les innovations qui promettent de faire progresser la productivité économique et la compétitivité nationale.
Par conséquent, les modèles d'IA générative tels que le ChatGPT et bien d'autres ne sont effectivement pas gouvernés, à l'exception de lignes directrices, de normes et de codes de pratique sectoriels sélectionnés, mais quelque peu flous. Et nous nous inquiétons des "voiles d'invisibilité de la gouvernance", par lesquels les lignes directrices sont rédigées et mises en œuvre de manière à traiter ostensiblement les problèmes éthiques, mais en réalité à les obscurcir et à permettre qu'ils soient ignorés ou contournés.
Sur une note positive, cependant, nous avons été heureux en 2022 de constater un intérêt croissant pour l'éthique comme moyen de naviguer dans les dilemmes inhérents à l'IA. Lors des conférences, nous constatons par exemple l'engagement de scientifiques et d'ingénieurs qui, il y a dix ans, se seraient montrés dédaigneux. On comprend de mieux en mieux ce que signifie l'intégration pratique de l'éthique dans les applications de l'IA. On se rend de plus en plus compte que l'ensemble du modèle en place est faussé et nous conduit vers un avenir qui déforme les valeurs fondamentales et porte atteinte à la dignité humaine.
Une remise à zéro s'impose !
L'éthique est un langage qui peut faciliter cette réinitialisation. L'éthique nous aide à gérer l'incertitude lorsque, par exemple, nous ne disposons pas de toutes les informations nécessaires pour guider nos décisions ou que nous ne pouvons pas prédire les conséquences de diverses actions. Elle nous aide à identifier les bonnes questions que nous devons poser pour rester humbles et combler les lacunes de notre compréhension, les points de tension existants et émergents, et les compromis inhérents aux différentes options et aux différents choix.
On peut peut-être nous reprocher de mettre l'accent sur les effets sociétaux indésirables de l'IA. Certes, les nombreux avantages de l'IA sont évidents. Mais les avantages des systèmes d'IA justifient-ils vraiment l'éventail massif et croissant de leurs inconvénients ?
Robert Oppenheimer, chef du projet Manhattan qui a mis au point les bombes atomiques qui ont mis fin à la campagne de la Seconde Guerre mondiale contre les Japonais, a déclaré un jour : "Il n'est pas possible d'être un scientifique à moins de croire que la connaissance du monde, et le pouvoir qu'elle confère, est une chose qui a une valeur intrinsèque pour l'humanité, et que vous l'utilisez pour aider à la diffusion de la connaissance, et que vous êtes prêt à en assumer les conséquences".
Les impacts négatifs peuvent bien sûr être désamorcés, mais seulement si l'on y accorde l'attention nécessaire, et seulement si l'on a la volonté de le faire. Quoi que nous décidions de faire ensuite, il est impératif que les promoteurs et les décideurs publics soient "prêts à en assumer les conséquences". Comme le dit Anil Seth, neuroscientifique et auteur : "Nous devrions nous préoccuper non seulement du pouvoir que les nouvelles formes d'intelligence artificielle acquièrent sur nous, mais aussi de la question de savoir si et quand nous devons adopter une position éthique à leur égard."
L'IA a le potentiel de nous rassembler, de relever les défis environnementaux, d'améliorer la santé publique et d'accroître l'efficacité et la productivité industrielles. Pourtant, elle est aussi de plus en plus utilisée pour cimenter et entretenir les divisions, et pour exacerber les formes existantes d'inégalité. Donner la priorité à la transparence et à la responsabilité n'est pas suffisant. Il est en effet nécessaire d'adopter une position éthique.
Alors que nous nous émerveillons des progrès de l'IA, pour qu'une gouvernance technologique efficace se matérialise réellement, une remise à zéro systémique visant à améliorer la condition humaine est nécessaire. L'IA et le système techno-social qui la soutient ne doivent pas nous opprimer, nous exploiter, nous avilir ou nous manipuler, nous ou l'environnement. Il ne s'agit pas seulement d'un défi pour la gouvernance, mais d'une question de reconnaissance des droits sociaux et politiques ainsi que de la dignité de chaque vie humaine.
Anja Kaspersen est Senior Fellow et Wendell Wallach est Carnegie-Uehiro Fellow à Carnegie Council for Ethics in International Affairs, où ils codirigent la Initiative pour l'intelligence artificielle et l'égalité (AIEI).
Carnegie Council for Ethics in International Affairs est un organisme indépendant et non partisan à but non lucratif. Les opinions exprimées dans cet article sont celles des intervenants et ne reflètent pas nécessairement la position de Carnegie Council.