Éthique et équité dans l'IA : qui fixe les règles ?

23 décembre 2021

Lors d'une conférence donnée en septembre 2021 à Sparks ! The Serendipity Forum au CERN, Anja Kaspersen, chargée de recherche principale pour l'initiative "Intelligence artificielle et égalité" (AIEI) du site Carnegie Council, aborde les questions liées à l'intelligence artificielle et au pouvoir. Alors que les humains continuent de proliférer et de faire évoluer les systèmes d'IA, elle demande qui a le pouvoir et l'influence dans ce nouveau monde. Selon Mme Kaspersen, il est nécessaire de comprendre que les humains ont le contrôle, d'éviter les récits technologiquement déterministes qui servent essentiellement des intérêts de cooptation et de désengagement, et de réfléchir plus profondément à pourquoi et comment les systèmes d'IA pourraient perpétuer les inégalités ou en créer de nouvelles.

S'il est clair que les systèmes d'intelligence artificielle (IA) offrent des opportunités dans divers domaines et contextes, ce qui équivaut à une perspective responsable sur leur éthique et leur gouvernance reste à réaliser et peu d'initiatives à ce jour ont eu un impact réel sur la modulation de leurs effets.

Les systèmes d'IA et les technologies algorithmiques sont intégrés et mis à l'échelle beaucoup plus rapidement que la maturité de la technologie qui les soutient actuellement - et les cadres de gouvernance existants sont encore en évolution.

Pourquoi ne faisons-nous pas ce qu'il faut ?

Permettez-moi de vous faire part de quelques réflexions, de démystifier certains mythes et de vous laisser avec quelques questions à poser alors que l'impact des systèmes basés sur l'IA s'infiltre dans nos vies :

Premièrement : Trop souvent, le débat sur l'IA est présenté comme une technologie qui évoluera sur sa propre trajectoire.

Ce n'est pas le cas

C'est un processus humain à part entière. Chaque nouveauté, chaque défi, chaque parti pris, chaque valeur, chaque opportunité. Nous sommes à un point d'inflexion, mais il s'agit d'un point humain et, dans une certaine mesure, d'un point politique ou même téléologique, et non d'un point technologique.

Deuxièmement : de nombreux dialogues existants sont trop étroits et ne parviennent pas à comprendre les subtilités et le cycle de vie des systèmes d'IA ainsi que leur fonctionnalité (parfois limitée) et leur impact. En outre, les méthodes scientifiques et la complexité qui sous-tendent le quoi, le comment et le pourquoi de la construction d'un système d'IA sont mal comprises par les décideurs. Nous avons besoin d'une meilleure intelligence scientifique et anthropologique, à la fois lors de l'élaboration des modèles fondamentaux et dans la manière dont nous envisageons les applications futures de l'intelligence artificielle.

Troisièmement : le débat se concentre sur certains aspects de l'éthique, tout en ignorant d'autres aspects plus fondamentaux et plus difficiles. Par exemple, quel est le potentiel des systèmes d'IA à perpétuer les inégalités existantes et à en créer de nouvelles ? Quel est le potentiel des systèmes d'IA à perpétuer les inégalités existantes et à en créer de nouvelles ?

C'est le problème connu sous le nom de "lavage éthique" - créer un sentiment superficiellement rassurant mais illusoire que les questions éthiques sont traitées de manière adéquate, afin de justifier la poursuite de systèmes qui finissent par approfondir les schémas actuels.

Quatrièmement : le piège de l'adaptation excessive, de la promesse excessive, de la prévision excessive et de la livraison insuffisante. Dans toute une série de systèmes sensibles, des soins de santé à l'emploi en passant par la justice et la défense, nous déployons des systèmes d'IA qui peuvent être brillants pour identifier des corrélations, mais qui ne comprennent pas la causalité ou les conséquences. Cela comporte des risques importants, en particulier lorsqu'ils sont déployés dans des contextes politiquement fragiles ou dans le secteur public.

Cinquièmement, les discussions sur l'IA et l'éthique sont encore largement confinées à la tour d'ivoire. Un discours public plus éclairé et un investissement sérieux dans l'éducation civique, la culture numérique, la participation diversifiée et les recherches transdisciplinaires autour de l'impact sociétal de la révolution bio-numérique sont nécessaires.

Sixièmement : la perception actuelle de l'IA par le grand public provient trop souvent de tropes de science-fiction et de films à grand spectacle. Nous devons trouver de meilleurs moyens de faire comprendre au public qu'au-delà des risques hypothétiques de l'IA future, il existe des limites réelles et imminentes liées aux raisons et à la manière dont nous intégrons les systèmes d'IA qui façonnent actuellement la vie quotidienne de chacun - et à qui revient le pouvoir de décider.

Septièmement, le discours public sur l'IA n'aborde pas suffisamment les conséquences en aval et se concentre trop souvent sur une approche d'optimisation technico-solutionniste myope, plutôt que sur ce que le problème exige. C'est ce que j'appelle le problème de la poussière de pixels de l'IA. Il s'agit notamment de savoir comment réduire l'impact potentiel sur l'environnement des calculs à forte intensité de ressources, les questions relatives à la propriété des données, et comment cultiver les talents, développer la culture numérique et la maîtrise de l'IA, et créer des espaces partagés et un langage vernaculaire pour partager les connaissances.

Certaines questions difficiles sont rarement abordées dans le discours public, malgré l'importance d'intégrer en toute sécurité les systèmes d'IA dans le domaine public. Il s'agit notamment des préoccupations relatives à la capacité d'interruption des systèmes d'IA : Comment et pouvons-nous réellement concevoir et intégrer des mécanismes de sécurité et de sûreté dans les systèmes d'IA, afin qu'ils s'interrompent ou se protègent en toute sécurité si un changement inattendu de circonstances les conduit à causer des dommages ? Il semble que le jury ne se soit pas encore prononcé sur cette question et que les réglementations restent, au mieux, embryonnaires.

L'interopérabilité est un autre problème sous-estimé : des véhicules autonomes aux technologies financières en passant par les applications de défense, quelle que soit la qualité de la conception d'un système individuel, celui-ci peut avoir des conséquences imprévues s'il n'est pas en mesure de fonctionner harmonieusement avec d'autres systèmes.

En outre, la pénétration des systèmes d'IA dans tous les aspects de la vie quotidienne a été considérablement accélérée par le blocage des pandémies, qui a fait basculer un plus grand nombre d'activités sociales et économiques dans le monde numérique. Les grandes entreprises technologiques exercent désormais un contrôle effectif sur de nombreux services publics et infrastructures numériques par le biais de programmes de passation de marchés ou d'externalisation. Les gouvernements et les prestataires de soins de santé ont déployé à une échelle sans précédent des systèmes d'IA pour des applications de suivi et de localisation de proximité et des réponses bioinformatiques. Cela a donné naissance à un nouveau secteur économique organisé autour du flux de données biologiques.

Un autre point préoccupant est que les personnes les plus vulnérables aux effets négatifs de l'IA sont également les moins susceptibles de pouvoir participer à la conversation, soit parce qu'elles n'ont pas d'accès numérique, soit parce que leur manque de connaissances numériques les rend propices à l'exploitation. Ces groupes vulnérables sont souvent théoriquement inclus dans les discussions, mais n'ont pas les moyens de participer de manière significative à la prise de décision. Cette iniquité artificielle et les préjugés humains risquent d'amplifier l'altérité et l'aliénation par la négligence, l'exclusion et la désinformation, avec des conséquences importantes.

Le débat plus large sur le caractère intentionnel ou non des effets de la technologie (au-delà des discussions traditionnelles sur le double usage) est peut-être plus insidieux. Ce débat se caractérise souvent par des affirmations selon lesquelles la technologie et l'IA sont apolitiques par nature ou qu'il n'y a aucun moyen de prédire pleinement l'impact une fois qu'elles sont utilisées. Il est intéressant de noter que ce point de vue est particulièrement répandu parmi les personnes non spécialisées, qui ne comprennent pas que chaque création technologique comporte des valeurs, et que les valeurs reflètent la culture, la politique, les modèles historiques de comportement et les réalités économiques.

Selon moi, il est temps de retourner à la planche à dessin et de se pencher sur la manière de traduire les principes dans la pratique. Pour ce faire, nous devons

  1. S'attaquer à nos angles morts.
  2. Posez-vous la question : Avons-nous les bonnes plateformes et les bonnes personnes pour les diriger ? Avons-nous donné aux gens les moyens de s'engager de manière significative sur ces plateformes ?
  3. Apprendre de l'expérience du CERN que la collaboration peut constituer un moyen de contrôle très efficace pour une science et une technologie réactives et responsables.
  4. Préciser clairement les aspects de l'éthique que nous prenons en considération et ceux qui sont négligés.
  5. Prendre conscience des règles, des valeurs et des intérêts que nous intégrons dans nos technologies.


Anja Kaspersen est Senior Fellow à Carnegie Council of Ethics in International Affairs. Elle a été directrice du Bureau des affaires de désarmement des Nations unies à Genève et secrétaire générale adjointe de la Conférence du désarmement. Auparavant, elle était responsable de l'engagement stratégique et des nouvelles technologies au Comité international de la Croix-Rouge (CICR).

Vous pouvez aussi aimer

3 JUIN 2024 - Podcast

L'intersection de l'IA, de l'éthique et de l'humanité, avec Wendell Wallach

Dans cette vaste discussion, Samantha Hubner et Wendell Wallach, boursiers de Carnegie Council , expliquent comment la réflexion sur l'histoire de l'éthique des machines peut contribuer au développement responsable de l'IA.

15 MAI 2024 - Podcast

L'IA bénéfique : aller au-delà des risques, avec Raja Chatila

Dans cet épisode du podcast "AIEI", Anja Kaspersen, Senior Fellow, s'entretient avec Raja Chatila, de l'université de la Sorbonne, sur l'intégration de la robotique, de l'IA et de l'éthique.

9 MAI 2024 - Podcast

L'état de la sécurité de l'IA en Chine, avec Kwan Yee Ng et Brian Tse

Dans ce podcast "AIEI", Wendell Wallach, membre de Carnegie-Uehiro, s'entretient avec Kwan Yee Ng et Brian Tse, de Concordia AI, sur la coordination de la gouvernance des technologies émergentes dans le monde.