Cartographie de l'IA et de l'égalité, partie 3 : le rôle de l'IA dans l'évolution de la condition humaine et ce que cela signifie d'être humain

3 février 2022

En cartographiant l'IA et l'égalité, il est utile de développer de grandes catégories qui mettent en évidence des trajectoires distinctes montrant l'impact de l'IA sur les personnes et leurs relations les unes avec les autres, ainsi qu'avec notre environnement commun. Cette série de billets de blog a pour but d'alimenter la réflexion.

Le discours actuel sur l'IA tourne autour d'une question centrale : La condition humaine sera-t-elle améliorée par l'IA ou l'IA transformera-t-elle la condition humaine d'une manière qui sapera les principes fondamentaux qui permettent un semblant de coopération humaine ? Si les deux sont vrais dans une certaine mesure, comment pouvons-nous gérer les compromis, améliorer les avantages et limiter les dommages potentiels pour les humains, la société et l'environnement ? En outre, que signifiera être un être humain à une époque constamment transformée par les possibilités technologiques ? De nombreuses raisons expliquent pourquoi ces questions sont devenues si centrales.

La perte d'un emploi sape le sentiment de valeur et de sens pour beaucoup et n'est qu'un exemple de la manière dont l'automatisation et les systèmes d'IA modifient la condition humaine et dégradent parfois la valeur intrinsèque des personnes. Cela crée une tension entre les capacités croissantes des systèmes d'IA et la perte de l'autonomie humaine. En d'autres termes, les personnes en général peuvent être traitées comme inégales ou inférieures aux machines.

Les attitudes, les comportements et l'image de soi ont déjà été modifiés par une publicité agressive et microciblée et par une propagande numérique conçue pour capter l'attention et manipuler les pensées et les comportements. La propagande et la publicité ne sont pas nouvelles, mais les progrès des sciences cognitives ont fourni des indications sur la manière dont la manipulation du comportement peut devenir une forme d'art. L'historien et auteur à succès Yuval Harari fait souvent remarquer qu'avec des dizaines de milliers et des millions de points de données, l'algorithme nous connaît mieux que nous ne nous connaissons nous-mêmes. Grâce à ces nouvelles technologies, les entreprises et autres entités ont le pouvoir de manipuler les individus, et les individus manipulés perdent leur pouvoir d'action. Au nom de la liberté, une fraction relativement faible de citoyens, de spécialistes du marketing et d'idéologues politiques sont habilités et autorisés par la simple disponibilité des outils à manipuler le reste de la population avec peu ou pas de contraintes. L'IA et les technologies algorithmiques déterminent de plus en plus comment, quoi, pourquoi et où nous consommons, ce que nous lisons, ce que nous écoutons, pour qui et pour quoi nous votons. La transformation numérique des individus et des communautés en simples statistiques, classements et points de données pourrait potentiellement permettre un nouveau type de totalitarisme numérique accidentel.

La manipulation numérique du comportement n'est qu'une des dimensions de l'altération de la condition humaine. Notre culture et nos modèles de compréhension sont en train d'être recâblés, tout comme les cerveaux et les habitudes quotidiennes. Comprenons-nous seulement ce qui se passe et comment nos facultés cognitives sont continuellement modifiées ?

La condition humaine, à ne pas confondre avec la nature humaine, est un terme général utilisé pour décrire tous les éléments de l'existence humaine et ce que signifie être humain. La condition humaine comprend les caractéristiques naturelles de tous les êtres humains, mais aussi les externalités et les événements auxquels les individus sont confrontés, ainsi que les problèmes moraux ou éthiques qu'ils peuvent rencontrer. Elle fait référence à ce que les humains font de leurs caractéristiques innées, à la manière dont ils les utilisent pour façonner le monde qui les entoure et à la manière dont, à son tour, ce monde nous façonne.

La contemplation de la condition humaine a donné naissance à la philosophie naturelle (science naturelle) à l'aube du siècle des Lumières il y a des centaines d'années et a guidé les études en philosophie, en art, en politique, en religion et, plus récemment, en sciences cognitives et en informatique. Nous soutenons que sans une discussion informée et ouverte sur l'impact de l'IA sur la condition humaine, nous sommes tous en danger.

Le récit techno-politique présume et renforce la croyance dans le déterminisme au détriment d'un véritable libre arbitre, où l'action et les intentions humaines peuvent prévaloir. Ce discours erroné repose sur une sorte de réductionnisme scientifique qui sape les perspectives plus holistiques. Le risque est que l'éthique se réduise à un utilitarisme mécaniste, où tout ce que l'ordinateur a à faire est de résoudre les problèmes difficiles des chariots élévateurs. Ce dernier point est important car il suggère que la prise de décision éthique peut être instanciée de manière algorithmique(Wallach, Wendell et Allen, Colin, 2009. Moral Machines : Teaching Robots Right From Wrong, Oxford University Press, NY).

Par défaut (et parfois par conception), les systèmes d'IA ne sont pas transparents, c'est-à-dire que même les concepteurs du système ne peuvent pas comprendre entièrement les étapes qui mènent à un résultat spécifique. Le système ne peut pas non plus expliquer à ses concepteurs et utilisateurs humains le raisonnement qui sous-tend ses résultats. Si les entreprises et les ingénieurs ne comprennent pas les activités des systèmes autonomes ou ne peuvent pas les contrôler, ils devraient être déclarés inacceptables ou fortement réglementés dans les situations où ils peuvent causer des dommages.

Pourtant, on entend de plus en plus souvent dire que les systèmes autonomes auront de meilleures performances ou de meilleurs jugements que les humains et que, par conséquent, leur utilisation compensera tout impact négatif. Par exemple, on prétend, mais ce n'est certainement pas prouvé, que les véhicules autonomes auront beaucoup moins d'accidents que les conducteurs humains. Même si les voitures autonomes sont plus sûres, il peut arriver qu'elles blessent ou tuent des personnes dans des circonstances qu'un conducteur attentif n'aurait pas connues. Devons-nous, en tant que société, accepter de tels risques si les avantages nets des voitures autonomes sont positifs ? L'acceptation des voitures autonomes pourrait-elle se traduire par une acceptation automatique d'autres systèmes autonomes, par exemple dans le domaine de la guerre, dont les avantages et les risques restent moins clairs ? Ce sont des questions qui devraient être largement débattues, mais qui ne bénéficient pas d'une attention éclairée suffisante.

Les affirmations selon lesquelles les systèmes d'IA prendront de meilleures décisions que leurs homologues humains sont souvent étayées par des exemples montrant que les personnes sont sujettes à des préjugés et à des biais cognitifs. Un biais cognitif est une erreur systématique de jugement. Depuis que le premier biais cognitif de ce type a été démontré empiriquement dans les recherches d'Amos Tversky et de Daniel Kahneman(Kahneman, D. et Tversky, A. 1979. Prospect Theory : An analysis of decision under risk, Econometrica, Vol 47, No. 2, pp. 263-293. Également : Kahneman, Daniel, 2011. Thinking Fast and Slow, Farrar, Straus, and Giroux), de nombreuses erreurs cognitives similaires ont été révélées. Celles-ci vont d'une incompréhension intuitive mais systématique des statistiques à une tendance à ignorer les informations qui ne confirment pas ce que l'on croit déjà. Certains futurologues affirment que les défauts de la nature humaine légués par l'évolution, tels que les biais cognitifs, justifient le génie génétique, la recherche sur l'IA, l'interconnexion des cerveaux avec les systèmes d'IA, ainsi que d'autres formes d'amélioration visant à transcender les limites humaines et à poursuivre l'évolution à l'aide de moyens technologiques.

L'affirmation selon laquelle les systèmes autonomes seront plus sûrs et plus précis est de plus en plus utilisée par les fabricants comme argument pour s'exonérer de certaines formes de responsabilité, en particulier pour les événements à faible probabilité qu'ils ne pouvaient pas prévoir. Déterminer ce qui aurait pu ou dû être prévu est une autre affaire. Il est certainement possible de concevoir des systèmes d'IA exempts d'erreurs logiques que les gens commettent couramment, mais les systèmes d'IA peuvent présenter d'autres biais, ou ne pas être sensibles à des informations importantes dont un être humain serait conscient et ne pas en tenir compte. Actuellement, le raisonnement fondé sur le bon sens, la compréhension sémantique, la conscience de soi, l'intelligence morale, l'intelligence émotionnelle et l'empathie font partie des capacités que les ingénieurs ne savent pas comment intégrer dans un système d'IA. Il existe de nombreuses théories sur la manière dont ces formes d'intelligence peuvent être instanciées, mais peu de preuves de concept.

Les discussions actuelles sur les biais algorithmiques indiquent clairement que l'on ne peut pas se fier entièrement aux ordinateurs pour prendre de bonnes décisions. Nous reconnaissons que, dans certaines situations, les systèmes d'IA actuels et futurs peuvent faire de meilleures recommandations que des personnes ayant des préjugés profonds, des personnes qui ne sont pas conscientes de leurs biais cognitifs ou des joueurs dont l'ambition personnelle l'emporte sur le bon jugement. Les développeurs trouveront de plus en plus de moyens de minimiser les entrées et sorties biaisées des ordinateurs. Néanmoins, nous soutenons que la meilleure prise de décision évaluera les résultats de l'ordinateur et les combinera avec la supervision et les connaissances des opérateurs et des experts.

Malheureusement, les affirmations selon lesquelles les systèmes d'IA prendront de meilleures décisions que les humains sapent déjà l'action humaine et la confiance en soi, tout en justifiant le transfert de décisions critiques aux machines. Que les systèmes d'IA supplantent ou non l'intelligence humaine à l'avenir, il existe une dilution continue de l'action humaine et une abrogation de la responsabilité et de l'autorité au profit des machines. À court terme, cette situation sert les intérêts des entreprises qui ne veulent pas être tenues pour responsables de ce dépassement scientifique et des actions des systèmes qu'elles déploient.


Anja Kaspersen est Senior Fellow à Carnegie Council of Ethics in International Affairs. Elle a été directrice du Bureau des affaires de désarmement des Nations unies à Genève et secrétaire générale adjointe de la Conférence du désarmement. Auparavant, elle était responsable de l'engagement stratégique et des nouvelles technologies au Comité international de la Croix-Rouge (CICR).

Wendell Wallach est consultant, éthicien et chercheur au Centre interdisciplinaire de bioéthique de l'université de Yale. Il est également chercheur au Lincoln Center for Applied Ethics, membre de l'Institute for Ethics & Emerging Technology et conseiller principal au Hastings Center.

Vous pouvez aussi aimer

Couverture du livre A Dangerous Master. CREDIT : Sentient Publications.

18 AVRIL 2024 - Article

Un maître dangereux : Bienvenue dans le monde des technologies émergentes

Dans cette préface à l'édition de poche de son livre "A Dangerous Master", Wendell Wallach aborde les percées et les questions éthiques liées à l'IA et aux technologies émergentes.

22 MARS 2024 - Podcast

Deux questions fondamentales dans la gouvernance de l'IA, avec Elizabeth Seger

Dans ce podcast intitulé "Artificial Intelligence & Equality", Wendell Wallach, membre de Carnegie-Uehiro, et Elizabeth Seger, de Demos, discutent de la manière de rendre l'IA générative sûre et démocratique.

23 FÉVRIER 2024 - Article

Qu'entend-on par "démocratisation de l'IA" ?

Alors que de nombreux partis appellent à la "démocratisation de l'IA", Elizabeth Seger, directrice du centre de recherche sur la politique numérique CASM chez Demos, examine les quatre significations de ce terme.