6 juillet 2023 - Article

Arguments en faveur d'un observatoire mondial de l'IA (GAIO), 2023

Les auteurs de la proposition suivante du GAIO sont le professeur Sir Geoff Mulgan, UCL ; le professeur Thomas Malone, MIT ; Divya Siddharth et Saffron Huang, projet d'intelligence collective, Université d'Oxford ; Joshua Tan, directeur exécutif, projet de métagouvernance ; Lewis Hammond, Cooperative AI.

Nous suggérons ici une mesure plausible et complémentaire sur laquelle le monde pourrait se mettre d'accord dès maintenant comme condition nécessaire à une réglementation plus sérieuse de l'IA à l'avenir (la proposition s'appuie sur les travaux de collègues de l'UCL, du MIT, d'Oxford, du Projet d'intelligence collective, de Metagov et de la Cooperative AI Foundation ainsi que sur des propositions antérieures).

Un Observatoire mondial de l'IA (GAIO) fournirait les faits et les analyses nécessaires pour soutenir la prise de décision. Il synthétiserait les données scientifiques et factuelles nécessaires pour soutenir une diversité de réponses en matière de gouvernance et répondre au grand paradoxe d'un domaine fondé sur les données et dans lequel on sait si peu de choses sur ce qui se passe en matière d'IA et sur ce qui pourrait se produire à l'avenir. Il n'existe actuellement aucune institution chargée de conseiller le monde, d'évaluer et d'analyser les risques et les opportunités, et une grande partie des travaux les plus importants sont délibérément tenus secrets. Le GAIO comblerait cette lacune.

Le monde dispose déjà d'un modèle avec le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Créé en 1988 par les Nations unies avec des pays membres du monde entier, le GIEC fournit aux gouvernements des informations scientifiques qu'ils peuvent utiliser pour élaborer des politiques climatiques.

Un organisme comparable pour l'IA fournirait une base fiable de données, de modèles et d'interprétations pour guider la politique et la prise de décision plus large en matière d'IA. Un tel organisme devrait être très différent du GIEC à certains égards, car il devrait travailler beaucoup plus rapidement et de manière plus itérative. Mais dans l'idéal, il devrait, comme le GIEC, travailler en étroite collaboration avec les gouvernements en leur fournissant les orientations dont ils ont besoin pour élaborer des lois et des réglementations.

À l'heure actuelle, de nombreux organismes recueillent des données précieuses sur l'IA. Les États-nations suivent les évolutions à l'intérieur de leurs frontières, les entreprises privées rassemblent des données industrielles pertinentes et des organisations telles que l'Observatoire des politiques d'intelligence artificielle de l'OCDE se concentrent sur les politiques et les tendances nationales en matière d'IA. Des tentatives ont également été faites pour cartographier les options de gouvernance d'une IA plus avancée, comme celle de governance.ai. Bien que ces initiatives constituent un début crucial, il existe toujours un fossé entre la façon dont les scientifiques réfléchissent à ces questions et la façon dont le public, les gouvernements et les politiciens le font. En outre, une grande partie de l'IA reste opaque, souvent délibérément. Or, il est impossible de réglementer judicieusement ce que les gouvernements ne comprennent pas.

Le GAIO pourrait contribuer à combler cette lacune par le biais de six domaines d'activité principaux :

  • La première est la création d'une base de données mondiale normalisée pour le signalement des incidents, axée sur les interactions critiques entre les systèmes d'IA et le monde réel. Par exemple, dans le domaine des risques biologiques, où l'IA pourrait contribuer à la création de pathogènes dangereux, un cadre structuré pour documenter les incidents liés à ces risques pourrait contribuer à atténuer les menaces. Une base de données centralisée enregistrerait les détails essentiels d'incidents spécifiques impliquant des applications d'IA et leurs conséquences dans divers contextes - en examinant des facteurs tels que l'objectif du système, les cas d'utilisation et les métadonnées sur les processus de formation et d'évaluation. Des rapports d'incidents normalisés pourraient permettre une coordination transfrontalière, réduisant ainsi les risques et les effets potentiels d'une mauvaise communication dans le cadre d'une probable course aux armements en matière d'IA, dont les conséquences seraient aussi désastreuses que celles de la course aux armements en matière d'armes nucléaires.
  • Deuxièmement, le GAIO établirait un registre des systèmes d'IA cruciaux, axé sur les applications d'IA ayant les impacts sociaux et économiques les plus importants, mesurés en fonction du nombre de personnes touchées, du nombre d'heures-personnes d'interaction et des enjeux de leurs effets, afin de suivre leurs conséquences potentielles. Dans l'idéal, ce registre fixerait également des règles pour l'accès aux modèles, afin de permettre un examen approfondi. Singapour dispose déjà d'un registre et le gouvernement britannique envisage de mettre en place un système similaire au sein du pays, mais à un moment donné, des approches similaires devront être adoptées au niveau mondial.
  • Troisièmement, le GAIO rassemblerait un ensemble commun de données et d'analyses sur les faits marquants de l'IA : dépenses, géographie, domaines clés, utilisations, applications (il existe de nombreuses sources à ce sujet, mais elles ne sont toujours pas rassemblées sous des formes facilement accessibles, et une grande partie des investissements reste très opaque).
  • Quatrièmement, le GAIO rassemblerait les connaissances mondiales sur les incidences de l'IA dans des domaines critiques par l'intermédiaire de groupes de travail couvrant des sujets tels que les marchés du travail, l'éducation, les médias et les soins de santé. Ces groupes orchestreraient la collecte de données, l'interprétation et les prévisions, par exemple en ce qui concerne les effets potentiels de la formation continue sur les emplois et les compétences. Le GAIO inclurait également des mesures des impacts positifs et négatifs de l'IA, tels que la valeur économique créée par les produits de l'IA et l'impact des médias sociaux basés sur l'IA sur la santé mentale et la polarisation politique.
  • Cinquièmement, le GAIO pourrait proposer aux gouvernements nationaux des options en matière de réglementation et de politique, ainsi qu'une assistance législative potentielle (en s'inspirant des leçons tirées de la promotion du DPI par Co-develop et de l'AIEA), en fournissant des lois et des règles modèles susceptibles d'être adaptées à différents contextes.
  • Enfin, le GAIO orchestrerait le débat mondial par le biais d'un rapport annuel sur l'état de l'IA qui analyserait les questions clés, les tendances qui se dessinent et les choix que les gouvernements et les organisations internationales doivent prendre en considération. Il s'agirait d'un programme évolutif de prédictions et de scénarios axés principalement sur les technologies susceptibles d'être mises en œuvre dans les deux ou trois années à venir, qui pourrait s'appuyer sur des efforts existants tels que l'indice d'IA produit par l'université de Stanford.

Le GAIO devra également innover. Comme indiqué, il devrait agir beaucoup plus rapidement que le GIEC, en tentant d'évaluer rapidement les nouveaux développements. Il pourrait surtout utiliser des méthodes d'intelligence collective pour rassembler les contributions de milliers de scientifiques et de citoyens, ce qui est essentiel pour suivre les capacités émergentes dans un domaine complexe qui évolue rapidement. En outre, il pourrait introduire des méthodes de dénonciation similaires à celles du gouvernement américain, qui incite généreusement les employés à signaler les actions nuisibles ou illégales.

Pour réussir, le GAIO devrait bénéficier d'une légitimité comparable à celle du GIEC. Pour ce faire, il devra compter parmi ses membres des gouvernements, des organismes scientifiques et des universités, entre autres, et mettre l'accent sur les faits et l'analyse plutôt que sur la prescription, qui serait laissée aux mains des gouvernements. Idéalement, il devrait avoir des liens formels avec d'autres organismes jouant un rôle clair dans ce domaine - l'UIT, l'IEEE, l'UNESCO et le Conseil international de la science. Il devrait s'efforcer de collaborer aussi étroitement que possible avec d'autres organismes qui effectuent déjà un excellent travail dans ce domaine, qu'il s'agisse de l'OCDE ou de centres universitaires.

Les contributeurs aux travaux du GAIO seraient sélectionnés, comme pour le GIEC, sur la base de nominations par les organisations membres afin de garantir la profondeur de l'expertise, la diversité disciplinaire et la représentativité mondiale, ainsi qu'une transparence maximale pour minimiser les conflits d'intérêts réels et perçus.

La communauté de l'IA et les entreprises qui utilisent l'IA ont tendance à se méfier de l'intervention des pouvoirs publics, qu'ils considèrent souvent comme une source de restrictions. Mais l'ère de l'autogestion est désormais révolue. Ce qui est proposé ici est une organisation qui existe en partie pour les gouvernements, mais dont le travail principal est effectué par des scientifiques, en s'inspirant des tentatives réussies pour gouverner de nombreuses autres technologies, de la fécondation humaine et du clonage aux armes biologiques et nucléaires.

Ces dernières années, le système des Nations unies s'est efforcé de faire face à l'influence croissante des technologies numériques. Il a créé de nombreux comités et groupes d'experts, souvent avec des titres prestigieux, mais généralement sans grand effet. Le plus grand risque aujourd'hui est de voir se multiplier les efforts sans lien les uns avec les autres, sans qu'aucun d'entre eux n'atteigne une traction suffisante. Les médias et les hommes politiques ont été facilement distraits par des allégations farfelues de risque existentiel, et peu d'entre eux se sentent en confiance pour défier les grandes entreprises, surtout lorsqu'elles sont menacées par la perspective de voir leurs citoyens privés des avantages de l'IA ouverte ou de Google.

Il ne sera donc pas facile de légitimer un nouvel organisme. Le GAIO devra convaincre les acteurs clés des États-Unis, de la Chine, du Royaume-Uni, de l'UE et de l'Inde, entre autres, qu'il comblera une lacune vitale, et devra persuader les grandes entreprises que leurs tentatives de contrôle de l'agenda, sans mise en commun des connaissances et des évaluations mondiales, ont peu de chances de survivre longtemps. L'argument fondamental en faveur de sa création est qu'aucun pays ne bénéficiera d'une IA hors de contrôle, tout comme aucun pays ne bénéficie de pathogènes hors de contrôle.

La réaction des pays variera certainement. La Chine, par exemple, a récemment proposé d'interdire les masters en droit dont le contenu "subvertit le pouvoir de l'État, préconise le renversement du système socialiste, incite à diviser le pays ou porte atteinte à l'unité nationale". Les États-Unis, en revanche, sont susceptibles de vouloir une liberté maximale.

Mais le partage des connaissances et des analyses est la condition nécessaire pour que les nations puissent décider de leurs propres priorités. L'intelligence artificielle non gérée menace les infrastructures et les espaces d'information dont nous avons tous besoin pour penser, agir et prospérer. La mise en commun intelligente des connaissances est le point de départ indispensable pour mieux exploiter les avantages de l'intelligence artificielle et en éviter les dangers.

Carnegie Council for Ethics in International Affairs est un organisme indépendant et non partisan à but non lucratif. Les opinions exprimées dans cet article sont celles des auteurs et ne reflètent pas nécessairement la position de Carnegie Council.

Vous pouvez aussi aimer

5 JUILLET 2023 - Article

Un cadre pour la gouvernance internationale de l'IA

Carnegie Councilen collaboration avec l'IEEE, propose un cadre de gouvernance de l'IA en cinq parties pour permettre une utilisation constructive de l'IA.

7 JUILLET 2023 - Article

Mise en place d'un cadre international pour la gouvernance de l'IA

Wendell Wallach et Anja Kaspersen, Senior Fellows, plaident en faveur d'un cadre solide pour la gouvernance internationale de l'IA.

24 JAN 2023 - Article

Le moment est venu de procéder à une réinitialisation systémique de la gouvernance de l'IA et des technologies

Comment faire en sorte que les technologies actuellement développées soient utilisées pour le bien commun, plutôt que pour le bénéfice de quelques privilégiés ? ...