Le long terme : Un cheval de Troie éthique

29 septembre 2022

Récemment, le philosophe William MacAskill a publié un ouvrage intitulé What We Owe The Futurea popularisé l'idée que le sort de l'humanité devrait être notre première priorité morale. Sa proposition centrale est que les 8 milliards d'humains d'aujourd'hui sont largement dépassés en importance par les centaines de milliards d'humains qui pourraient vivre dans les générations futures si nous pouvons éviter d'anéantir l'humanité à court terme.

L'argument de MacAskill est connu sous le nom de "longtermism" (souvent écrit "long-termisme") et a déjà été vivement critiqué. Par exemple, la chroniqueuse Christine Emba a a écrit dans le Washington Post: "C'est convaincant à première vue, mais en tant que système de valeurs, ses implications pratiques sont inquiétantes". En pratique, explique-t-elle, cela implique de considérer "la prévention des menaces existentielles pour l'humanité comme la cause philanthropique la plus précieuse", ce qui signifie que nous devrions investir beaucoup plus dans la lutte contre les risques qui menacent l'existence de l'humanité à très long terme.

Comme le dit Emba, il peut sembler impossible de ne pas être d'accord. Pensez au changement climatique : La plupart d'entre nous reconnaissent aujourd'hui que nous avons sous-estimé pendant des décennies la menace d'un effondrement de l'environnement et qu'avec le recul, nous aurions dû être plus disposés à sacrifier une partie de notre niveau de vie pour accélérer la transition vers l'abandon de la combustion des combustibles fossiles.

La difficulté survient lorsqu'il s'agit de faire des compromis. Combien faut-il sacrifier aujourd'hui pour augmenter les chances des générations futures de survivre aux diverses menaces perçues ? Dans quelle mesure une menace future spéculative peut-elle justifier les sacrifices actuels ? Qui doit se sacrifier et quand ? Et qui décide quand et qui se sacrifie, et ce qu'il faut sacrifier ?

Pour prendre un exemple extrême, considérons une proposition hypothétique visant à consacrer un quart de toutes les ressources humaines à la réduction du risque qu'un astéroïde ou une comète de grande taille percute la terre. Imaginez que les gouvernements mandatent les universités pour qu'elles se concentrent principalement sur la technologie de repérage des astéroïdes et réquisitionnent les usines pour fabriquer des pièces de missiles destinés à dévier la trajectoire des astéroïdes qui s'approchent.

Une telle proposition serait absurde, car il est peu probable qu'une collision avec un astéroïde menace l'humanité dans un avenir proche, peut-être avant des millions d'années. Mais la menace d'une collision à court terme est suffisamment réaliste pour que l'on puisse s'attendre à ce qu'elle se produise. suffisamment réaliste que nous devrions manifestement consacrer une partie des ressources humaines à y faire face. La superproduction hollywoodienne " Don't Look Up" se voulait une allégorie du changement climatique, mais elle explore aussi de manière amusante le manque de préparation de l'humanité si la menace d'un astéroïde devait soudainement se concrétiser.

Combien de temps et de capitaux faut-il consacrer à la défense contre les astéroïdes et les comètes ? Cette question n'a pas de réponse évidente, et les frappes d'astéroïdes ne sont qu'une des nombreuses menaces spéculatives à long terme, dont un pourcentage important est lié aux technologies humaines. Nous avons déjà développé une technologie capable de rendre la planète inhabitable - les armes nucléaires - et nous investissons beaucoup de temps et de capital politique dans des efforts visant à garantir que cette technologie ne soit jamais utilisée.

Nous travaillons actuellement sur d'autres technologies au potentiel destructeur comparable. Combien devrions-nous investir pour faire face aux risques de pandémies causées par des agents pathogènes créés par l'homme, par exemple ? Ou des systèmes alimentés par l'intelligence artificielle qui deviennent plus intelligents que les humains en accomplissant des tâches semblables à celles des humains, mais qui ne sont pas suffisamment alignés sur les valeurs humaines fondamentales ?

La science-fiction est utile pour identifier les menaces potentielles, mais elle ne peut pas nous amener plus loin dans l'examen des compromis en temps réel. Traditionnellement, les auteurs de science-fiction ont voulu nous mettre en garde contre la tentation d'adopter des technologies sans en comprendre les effets indésirables ou les utilisations néfastes. Nous suivons ce conseil lorsque, par exemple, nous réglementons le type de recherche sur l'édition des gènes qui peut être menée pour empêcher la création de nouveaux agents pathogènes mortels ou d'armes biologiques.

Mais ce n'est là qu'une approche parmi d'autres. Une autre consiste à rechercher délibérément des agents pathogènes mortels dans des laboratoires biologiques afin de mieux se préparer et de mettre au point des traitements pour les futures pandémies imaginables. L'approche qui semble la meilleure dépendra en partie de la question de savoir si nous pensons que le type de recherche qui pourrait créer des agents pathogènes mortels offre également la possibilité d'acquérir des connaissances qui pourraient conduire à d'autres percées.

Les progrès de la technologie d'édition des gènes pourraient potentiellement permettre de créer des générations futures d'êtres humains dont les capacités dépasseraient celles de la génération actuelle. Si nous accordons une grande importance morale à ces générations futures, nous pourrions nous sentir obligés de poursuivre la technologie tout en faisant de notre mieux pour atténuer les risques. En revanche, si nous donnons la priorité à la réduction des risques pour le bien-être des personnes vivant aujourd'hui, nous pourrions préférer limiter plus strictement les recherches qui peuvent être menées.

La création de nouveaux agents pathogènes en vue d'étudier leur traitement présente le risque que l'agent pathogène "s'échappe" du laboratoire biologique avant qu'un traitement ne soit mis au point. L'experte en biosécurité Filippa Lentzos souligne que nous ne connaissons pas l'ampleur du risque que nous courons : "À l'heure actuelle, il n'existe aucune obligation de déclarer ces installations au niveau international, et aucune entité internationale n'est mandatée pour recueillir des informations sur les mesures de sûreté et de sécurité qu'elles ont mises en place, ni pour assurer une surveillance à l'échelle mondiale.

Mais il existe un autre problème plus fondamental : Les ressources que nous consacrons à la préparation aux pandémies futures ne peuvent pas être utilisées pour traiter les maladies évitables et les maladies chroniques d'aujourd'hui. Il y aura toujours une tension inhérente entre les gains certains liés à l'amélioration de la vie des personnes en vie aujourd'hui et les gains incertains liés à la maximisation des avantages spéculatifs et à la minimisation des risques conjecturaux auxquels sont confrontées les générations futures potentielles.

Nous ne doutons pas des bonnes intentions de philosophes comme William MacAskill. Nombre de nos collègues et amis partagent ses préoccupations, et certains d'entre eux sont des voix de premier plan sur la nécessité de donner la priorité aux risques existentiels à long terme. Cependant, nous craignons que ces préoccupations légitimes ne soient facilement déformées et confondues avec des désirs personnels, des objectifs, des convictions messianiques et la promotion d'agendas politiques et d'intérêts corporatistes profondément ancrés.

Pour comprendre pourquoi, imaginez que vous êtes un milliardaire qui a investi dans le développement d'une technologie susceptible de causer divers dommages à court terme, voire d'anéantir l'humanité à long terme. Vous craignez que le public et les gouvernements ne se concentrent sur les dommages à court terme et ne nuisent à vos profits en réglementant la manière dont la technologie peut être développée et utilisée.

Pour réduire cette probabilité, vous pourriez décider d'investir dans le renforcement du profil des penseurs qui se concentrent plutôt sur les risques existentiels à long terme, tout en faisant des déclarations hyperboliques sur les avantages à long terme. Cette stratégie est particulièrement évidente dans les discussions sur les risques et les avantages des intelligences artificielles. Les développeurs et les investisseurs espèrent qu'en persuadant le public que l'on s'attaque à la véritable "grande" menace, il se montrera optimiste quant aux problèmes et aux lacunes plus immédiats. Ils espèrent donner l'impression que les dommages causés aujourd'hui valent la peine d'être supportés parce qu'ils seront largement compensés par les avantages promis pour demain, lorsque la technologie aura atteint sa maturité. Une telle stratégie masque la possibilité que les risques à long terme dépassent de loin les avantages à court terme d'applications spécifiques.

Ce n'est pas une coïncidence si les instituts qui travaillent, par exemple, à anticiper les risques existentiels de l'intelligence artificielle générale reçoivent une grande partie de leur financement des mêmes milliardaires qui poursuivent avec enthousiasme le développement de systèmes et d'applications d'IA de pointe. Parallèlement, il est beaucoup plus difficile, voire impossible, d'obtenir un financement pour la recherche sur ces applications de pointe qui sont appliquées aujourd'hui de manière à accroître les profits mais à nuire à la société.

La philosophie à long terme, bien intentionnée, risque donc de devenir un cheval de Troie pour les intérêts particuliers de quelques privilégiés. C'est pourquoi nous avons été surpris de voir cette position philosophique apparaître comme un fil rouge dans"Notre programme commun", le nouveau manifeste de grande envergure du secrétaire général des Nations unies, António Guterres.

Guterres écrit : "Il est temps de penser à long terme [...] nos politiques dominantes et nos incitations économiques restent fortement axées sur le court terme et le statu quo, donnant la priorité aux gains immédiats au détriment du bien-être humain et planétaire à plus long terme". Il souligne que les générations actuelles et futures devront vivre avec les conséquences de notre action ou de notre inaction et affirme que "l'humanité est confrontée à une série de défis à long terme qui évoluent sur plusieurs périodes de la vie humaine".

À première vue, comme nous l'avons vu, de tels sentiments semblent être le genre de choses avec lesquelles personne ne pourrait être en désaccord. Cependant, nous pensons que cette rhétorique est préjudiciable. Elle risque d'accréditer des agendas qui servent les intérêts à court terme des élites politiques, économiques et technologiques en poussant au développement de technologies qui ont clairement démontré qu'elles pouvaient exacerber les inégalités et nuire à l'intérêt général.

Nous ne disons pas que telle est l'intention. Mais nous sommes préoccupés par ce que ces mots inoffensifs pourraient servir à justifier, en particulier lorsque M. Guterres propose d'établir un "laboratoire du futur" pour "aider les États, les autorités infranationales et d'autres à renforcer leurs capacités et à échanger des bonnes pratiques afin d'améliorer la vision à long terme, l'action prospective et l'adaptabilité". (accentuation ajoutée)

Si l'idée de base du long-termisme - accorder aux générations futures le même poids moral qu'aux nôtres - semble superficiellement incontestable, elle doit être replacée dans un contexte philosophique à plus long terme. Le long-termisme est une forme d'utilitarisme ou de conséquentialisme, l'école de pensée développée à l'origine par Jeremy Bentham et John Stuart Mill.

Le postulat utilitariste selon lequel nous devrions faire ce qui fait le plus de bien au plus grand nombre de personnes semble également relever du bon sens à première vue, mais il présente de nombreux problèmes bien compris. Ceux-ci ont été soulignés pendant des centaines d'années par les philosophes des écoles opposées de l'éthique déontologique, qui croient que les règles et les devoirs moraux peuvent prendre le pas sur les considérations conséquentialistes, et les théoriciens de la vertu, qui affirment que l'éthique est avant tout une question de développement du caractère. En d'autres termes, le long-termisme peut être considéré comme une position particulière dans le débat séculaire sur l'éthique intergénérationnelle.

La tendance à populariser le long-termisme n'est pas une tentative de résoudre ces débats intellectuels de longue date, mais de les contourner. Par le biais d'un slogan attrayant, elle tente de faire de la prise de décision morale conséquentialiste, qui donne la priorité au bien-être des générations futures, la théorie éthique dominante de notre époque.

Le long-termisme est issu du mouvement de l'altruisme efficace, inspiré par le philosophe utilitariste Peter Singer. Cependant, il représente un changement fondamental par rapport à l'accent mis à l'origine par Singer sur les causes humanitaires. Selon Singer, il est immoral de dépenser pour le luxe alors que l'argent pourrait être investi dans des causes humanitaires afin d'alléger les souffrances des personnes défavorisées.

Par analogie, la logique long-termiste suggère qu'il est immoral de dépenser pour soulager la souffrance ici et maintenant alors que l'argent pourrait être investi pour façonner l'avenir. La contestation de cette logique est souvent qualifiée de "parti pris pour le présent".

Mais combien devrions-nous sacrifier aujourd'hui pour la vie d'hypothétiques êtres futurs qui pourraient ne pas vivre physiquement, mais dans le métavers ? Comme le dit l'universitaire Emile Torres le ditLes critiques pourraient bien dire que le fait de se concentrer sur les personnes numériques dans un avenir lointain ne peut que détourner l'attention des problèmes du monde réel qui affectent les êtres humains. La principale difficulté du long-termisme réside dans le fait qu'il est facile de dissimuler de telles implications éthiquement douteuses derrière le bouclier de sentiments admirables.

Interrogé sur sa participation à la rédaction de "Our Common Agenda", par exemple, William MacAskill a répondu par des arguments que personne ne peut contester, comme le fait que "bon nombre des défis qui semblent les plus importants pour orienter positivement l'avenir impliquent des biens publics mondiaux". "

MacAskill suggère également : "Peut-être y a-t-il même certains domaines de l'IA que nous voulons réglementer à l'échelle mondiale ou ralentir au moins à l'échelle mondiale parce que nous pensons qu'ils posent plus de risques et de dangers et qu'ils sont différents de la plupart des utilisations de l'IA qui seront extrêmement bénéfiques. Et l'ONU a ce pouvoir de rassemblement, elle a ce pouvoir de persuasion, et elle pourrait donc potentiellement nous aider".

La gouvernance internationale de l'IA est un objectif partagé par de nombreuses personnes, dont Carnegie Council for Ethics in International Affairs. Mais, comme le dit l'adage, le diable est dans les détails. Comment faire la distinction entre les domaines de l'IA qui présentent des risques et des dangers et "la plupart des utilisations de l'IA" qui, selon MacAskill, seraient extrêmement bénéfiques ? Les sentiments à long terme pourraient détourner l'attention des arguments en faveur d'une gouvernance à court terme des nouvelles applications.

Le débat porte sur "notre agenda commun" et se termine par un "sommet sur l'avenir" en 2023. Il est clair que l'objectif d'empêcher les technologies de détruire l'humanité est bon. Il pourrait bien nécessiter davantage de financement et d'attention. Mais de quels autres biens sociaux et droits de l'homme fondamentaux devrions-nous détourner les fonds et l'attention ?

Plutôt que des slogans, nous avons besoin d'une réflexion approfondie sur les tensions et les compromis entre les objectifs à long terme et ceux à plus court terme. Mais s'il faut un slogan pour résumer notre inquiétude à l'égard de "Notre programme commun" et de son adhésion implicite au long terme, il suffit de regarder le titre d'un autre rapport des Nations unies, le "Rapport sur le développement durable". de l'ONU de 2019 : "L'avenir, c'est maintenant".

En effet, de notre point de vue, les actes de bonté et d'attention à l'égard de ceux qui sont en vie aujourd'hui sont des conditions préalables à tout avenir viable.

Anja Kaspersen est senior fellow et Wendell Wallach est Carnegie-Uehiro Fellow à Carnegie Council for Ethics in International Affairs, où ils codirigent la Initiative pour l'intelligence artificielle et l'égalité (AIEI).

Vous pouvez aussi aimer

Couverture du livre A Dangerous Master. CREDIT : Sentient Publications.

18 AVRIL 2024 - Article

Un maître dangereux : Bienvenue dans le monde des technologies émergentes

Dans cette préface à l'édition de poche de son livre "A Dangerous Master", Wendell Wallach aborde les percées et les questions éthiques liées à l'IA et aux technologies émergentes.

22 MARS 2024 - Podcast

Deux questions fondamentales dans la gouvernance de l'IA, avec Elizabeth Seger

Dans ce podcast intitulé "Artificial Intelligence & Equality", Wendell Wallach, membre de Carnegie-Uehiro, et Elizabeth Seger, de Demos, discutent de la manière de rendre l'IA générative sûre et démocratique.

23 FÉVRIER 2024 - Article

Qu'entend-on par "démocratisation de l'IA" ?

Alors que de nombreux partis appellent à la "démocratisation de l'IA", Elizabeth Seger, directrice du centre de recherche sur la politique numérique CASM chez Demos, examine les quatre significations de ce terme.