Pourquoi échouons-nous en matière d'éthique de l'IA ?

10 novembre 2021

Des développements récents ont encore accru les enjeux liés à l'éthique des systèmes et des applications d'IA. La pénétration des systèmes d'IA dans tous les aspects de la vie quotidienne s'est considérablement accélérée grâce à COVID-19, qui a fait basculer davantage d'activités sociales et économiques dans le monde numérique. Les grandes entreprises technologiques exercent désormais un contrôle effectif sur de nombreux services publics et infrastructures numériques par le biais de programmes de passation de marchés ou d'externalisation. Par exemple, les gouvernements et les prestataires de soins de santé ont déployé des systèmes d'IA et des technologies algorithmiques à une échelle sans précédent dans des applications telles que le suivi de proximité, le traçage et les réponses bioinformatiques, déclenchant un nouveau secteur économique dans le flux des données biologiques.

Il est extrêmement troublant de constater que les personnes les plus vulnérables aux effets négatifs d'une expansion aussi rapide des systèmes d'IA sont souvent les moins susceptibles de pouvoir participer à la conversation sur ces systèmes, soit parce qu'elles n'ont pas d'accès numérique ou un accès limité, soit parce que leur manque de connaissances numériques les rend vulnérables à l'exploitation.

Ces groupes vulnérables sont souvent théoriquement inclus dans les discussions, mais n'ont pas les moyens de prendre une part significative à la prise de décision. Cette iniquité artificielle, associée aux préjugés humains, risque d'amplifier l'altérité par la négligence, l'exclusion, la désinformation.

La société devrait être profondément préoccupée par le fait que l'on est loin d'avoir réalisé suffisamment de progrès substantiels pour développer et étendre une surveillance juridique et éthique réalisable tout en s'attaquant aux inégalités existantes.

Alors, pourquoi n'a-t-on pas fait plus ? Trois questions principales sont en jeu :

Premièrement, de nombreux dialogues existants sur l'éthique de l'IA et la gouvernance sont trop étroits et ne parviennent pas à comprendre les subtilités et les cycles de vie des systèmes d'IA et leurs impacts.

Souvent, ces efforts se concentrent uniquement sur les étapes de développement et de déploiement du cycle de vie de la technologie, alors que de nombreux problèmes surviennent au cours des premières étapes de la conceptualisation, de la recherche et de la conception. Ou bien ils ne parviennent pas à comprendre quand et si un système d'IA fonctionne à un niveau de maturité requis pour éviter les défaillances dans les systèmes adaptatifs complexes.

Ou bien ils se concentrent sur certains aspects de l'éthique, tout en ignorant d'autres aspects qui sont plus fondamentaux et plus difficiles. C'est le problème connu sous le nom de "lavage éthique" - créer un sentiment superficiellement rassurant mais illusoire que les questions éthiques sont traitées de manière adéquate, pour justifier la poursuite de systèmes qui finissent par approfondir les schémas actuels.

Soyons clairs : chaque choix implique des compromis. "Parler d'éthique, c'est souvent souligner les différents compromis qu'impliquent les différentes lignes de conduite. Une fois qu'une ligne de conduite a été choisie, la surveillance éthique complète consiste également à aborder les considérations non prises en compte par les options sélectionnées, ce qui est essentiel pour tout effort de vérification ultérieur. Cette partie vitale du processus est souvent une pierre d'achoppement pour ceux qui tentent d'aborder l'éthique de l'IA.

Le deuxième problème majeur est qu'à ce jour, toutes les discussions sur l'éthique ne sont que cela : des discussions.

Nous n'avons pas encore vu ces discussions se traduire par des changements significatifs dans la gestion de la manière dont les systèmes d'IA sont intégrés dans divers aspects de nos vies.

Malgré toutes les tentatives pour impliquer un large éventail de parties prenantes, les règles restent floues ou inexistantes, les intérêts commerciaux et géopolitiques divergent, l'innovation continue de se produire dans des espaces restreints, secrets et privés, et les décisions sont concentrées entre quelques mains alors que les inégalités se creusent à un rythme alarmant.

Les principaux sujets de préoccupation sont le pouvoir de surveillance des systèmes d'IA, la pollution du discours public par les robots des médias sociaux et la partialité algorithmique : dans divers domaines sensibles, des soins de santé à l'emploi en passant par la justice, divers acteurs déploient des systèmes d'IA qui peuvent être brillants pour identifier des corrélations mais qui ne comprennent pas la causalité ou les conséquences.

La surestimation des capacités des systèmes d'IA est un problème bien connu dans la recherche sur l'IA et l'apprentissage automatique. L'extrapolation et la mémorisation de modèles dans les données pour accomplir des tâches très spécifiques sont très éloignées de la compréhension du problème réel qu'elles sont censées résoudre. Trop souvent, les personnes chargées d'intégrer et de déployer les systèmes d'IA ne comprennent pas comment ils fonctionnent, ni quel potentiel ils peuvent avoir pour perpétuer les inégalités existantes et en créer de nouvelles.

Les décideurs ont aussi généralement une mauvaise compréhension des méthodes scientifiques et de la complexité qui sous-tendent le quoi, le comment et le pourquoi de la construction d'un système d'IA. Souvent, ils adoptent une approche d'optimisation myope et techno-solutionniste pour appliquer les systèmes d'IA aux défis mondiaux, industriels et sociétaux, aveuglés par ce qui est offert plutôt que par ce que le problème exige. Des questions restent également en suspens concernant les conséquences potentielles en aval, telles que l'impact environnemental des ressources nécessaires pour construire, former et faire fonctionner un système d'IA, l'interopérabilité et la possibilité d'interrompre un système d'IA en toute sécurité.

Untroisième problème est que les discussions sur l'IA et l'éthique sont encore largement confinées à la tour d'ivoire.

Il y a un besoin urgent d'un discours public plus informé et d'un investissement sérieux dans l'éducation civique concernant l'impact sociétal de la révolution bio-numérique. Cela pourrait contribuer à résoudre les deux premiers problèmes, mais la majeure partie de ce que le grand public perçoit actuellement de l'IA provient de tropes de science-fiction et de films à succès.

Quelques exemples de biais algorithmiques ont pénétré le discours public. Mais les recherches sur l'IA et l'éthique qui font le plus la une des journaux ont tendance à se concentrer sur les risques existentiels à long terme. Il faut redoubler d'efforts pour faire comprendre au public qu'au-delà des risques hypothétiques de l'IA future, il existe des risques réels et imminents liés aux raisons et à la manière dont nous intégrons les systèmes d'IA qui façonnent actuellement la vie quotidienne de chacun.

Les non-techniciens supposent à tort que les systèmes d'IA sont apolitiques par nature, sans comprendre que des inégalités structurelles se produiront, en particulier lorsque ces systèmes rencontrent des situations qui sortent du contexte dans lequel ils ont été créés et entraînés. Des concepts tels que l'éthique, l'égalité et la gouvernance peuvent être considérés comme nobles et abstraits. Il est essentiel de traduire ces concepts en explications concrètes et réalistes de l'impact des systèmes d'IA sur les personnes aujourd'hui.

L'élargissement du discours public se heurte en partie au fait qu'il n'existe toujours pas de méthodologie ou de langage commun pour discuter de la manière dont les systèmes d'IA sont intégrés ou appliqués, ni de méthodes convenues pour évaluer, estimer et vérifier les effets des systèmes d'IA sur les personnes, la société ou la stabilité internationale. Le langage est ancré dans la culture - la nouveauté n'est comprise que par analogie avec ce qui est familier - et il est particulièrement difficile de trouver les bonnes métaphores ou les bons outils lorsqu'une grande partie de l'IA ne ressemble à rien de ce qui s'est fait auparavant.

Alors, qu'est-ce qui ne va pas, collectivement, dans notre volonté de promouvoir des utilisations responsables des systèmes d'IA et des technologies algorithmiques ? Comment et de quoi avons-nous besoin pour élargir les discussions autour de l'éthique et de l'IA, et accélérer la traduction des principes en pratique vers plus de précision, de fiabilité et de validité ?

C'est devenu un cliché de dire que le monde se trouve à un point d'inflexion dans l'histoire. Mais en tant que personnes étroitement impliquées dans le discours sur l'IA et l'éthique, nous savons que c'est vrai - et que nous avons très peu de compréhension de ce qui nous attend, ou de sagesse pour naviguer dans les incertitudes à venir.

Les transformations technologiques à grande échelle ont toujours conduit à de profonds changements sociétaux, économiques et politiques, et il a toujours fallu du temps pour trouver la meilleure façon de réagir afin de protéger le bien-être des gens. Tel est le potentiel de transformation de l'IA ; cependant, nous n'avons pas beaucoup de temps pour bien faire les choses. En outre, croire que des systèmes d'IA incompétents et immatures une fois déployés peuvent être corrigés ou supposer qu'un antidote existe, en particulier un antidote compatible avec la cybersécurité, est une illusion erronée et potentiellement dangereuse.

Nous devons nous appuyer sur l'expertise et les réseaux existants pour accélérer et développer les initiatives d'IA axées sur l'éthique afin de renforcer l'intelligence anthropologique et scientifique, d'établir un nouveau dialogue, de permettre à toutes les parties prenantes concernées de s'engager de manière significative, de trouver des moyens pratiques et participatifs de garantir la transparence, d'attribuer les responsabilités et d'empêcher l'IA d'engendrer des inégalités susceptibles de créer de graves préjudices sociaux.

Anja Kaspersen et Wendell Wallach sont chercheurs principaux à Carnegie Council pour l'éthique dans les affaires internationales. Avec un comité consultatif international, ils dirigent l'initiative Carnegie sur l'intelligence artificielle et l'égalité (AIEI), qui cherche à comprendre les innombrables façons dont l'IA a un impact sur l'égalité et, en réponse, à proposer des mécanismes potentiels pour garantir les avantages de l'IA pour tous.

Vous pouvez aussi aimer

13 MAI 2022 - Article

L'éthique telle que nous la connaissons est révolue. Il est temps de la repenser.

Compte tenu de la situation troublante des affaires internationales, il y a lieu de s'inquiéter grandement de la manière dont l'éthique est encadrée ou cooptée. Pour répondre à ce moment, ...

3 MAI 2022 - Article

Pourquoi la démocratie et l'autocratie n'ont rien à voir l'une avec l'autre

Aujourd'hui, le monde semble se focaliser sur la lutte entre "démocratie et autocratie", mais si ce débat idéologique passait à côté de l'essentiel ? Columbia ...

26 AVRIL 2022 - Podcast

La promesse et le péril des interfaces cerveau-machine, avec Ricardo Chavarriaga

Dans ce podcast intitulé "Intelligence artificielle et égalité", Anja Kaspersen, Senior Fellow, s'entretient avec le Dr Ricardo Chavarriaga sur les promesses et les dangers des interfaces cerveau-machine et des ...