Cette présentation a été organisée par Anja Kaspersen, Senior Fellow de Carnegie Council, et Wendell Wallach, Carnegie-Uehiro Fellow, codirecteurs de l'initiative "Intelligence artificielle et égalité" (AIEI). Initiative pour l'intelligence artificielle et l'égalité (AIEI). La proposition a été élaborée à partir des points de vue de personnes et d'institutions issues des milieux universitaires, technologiques et de la gouvernance.
Contenu
1. Un cadre pour la gouvernance internationale de l'IA
3. Arguments en faveur d'un observatoire mondial de l'IA (GAIO), 2023
4. "Middleware" et modalités de la gouvernance internationale de l'IA
Contact : Kevin Maloney, Carnegie Council Directeur de la communication, [email protected]
Un cadre pour la gouvernance internationale de l'IA
Vue d'ensemble
Pour promouvoir les avantages des technologies innovantes, il faut s'attaquer aux perturbations sociétales potentielles et assurer la sécurité publique. Le déploiement rapide des applications génératives de l'intelligence artificielle (IA) souligne l'urgence de mettre en place des mécanismes de gouvernance robustes pour un contrôle éthique et juridique efficace. La présente note conceptuelle propose la création immédiate d'un observatoire mondial de l'IA soutenu par des mécanismes consultatifs coopératifs afin d'identifier et de diffuser les meilleures pratiques, les normes et les outils pour une gouvernance internationale globale des systèmes d'IA.
Objectif
Cette initiative s'intéresse aux moyens pratiques de mettre en place un cadre de gouvernance qui s'appuie sur les ressources existantes et peut avoir un effet immédiat. Ce cadre permettrait une utilisation constructive de l'IA et des technologies connexes tout en aidant à prévenir les utilisations immatures ou abusives qui perturbent la société ou menacent la sécurité publique et la stabilité internationale.
Des principes à la pratique
Il existe déjà de nombreux codes de conduite ou listes de principes pour l'utilisation responsable de l'IA. Ceux publiés par l'UNESCO et l'OCDE/G20 sont les deux plus largement approuvés. Ces dernières années, diverses institutions se sont efforcées de mettre ces principes en pratique par le biais de normes spécifiques à certains domaines. Quelques États et régions ont formulé des propositions et même adopté des contraintes concernant des utilisations spécifiques de l'IA. Par exemple, la Commission européenne a publié un cadre juridique complet (EU AI Act) visant à garantir des systèmes d'IA sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement, supervisés par des humains. Les principes de Pékin en matière d'intelligence artificielle ont été suivis de nouvelles réglementations imposées aux entreprises et aux applications par l'administration chinoise du cyberespace. Aux États-Unis, diverses initiatives au niveau fédéral et au niveau des États soulignent la nécessité d'un cadre législatif. Le secrétaire général des Nations unies a également proposé récemment la création d'un groupe d'experts de haut niveau chargé d'envisager une surveillance de l'IA semblable à celle de l'AIEA.
Cadre proposé
La gouvernance de l'IA est difficile car elle a un impact sur presque toutes les facettes de la vie moderne. Les défis vont de l'interopérabilité à la garantie que les applications contribuent à la réalisation des ODD et ne la compromettent pas. Un cadre de gouvernance mondial doit s'appuyer sur le travail d'institutions existantes respectées et sur de nouvelles initiatives remplissant des tâches essentielles, telles que le contrôle, la vérification et l'application de la conformité. Seule une approche véritablement souple et flexible de la gouvernance peut assurer une surveillance continue de technologies en évolution qui ont de vastes applications, avec des calendriers de réalisation et de déploiement différents, et une pléthore de normes et de pratiques ayant des objectifs différents.
Compte tenu des divergences politiques sur les questions de politique et de gouvernance technologiques, la création d'un nouvel organisme mondial prendra du temps. Néanmoins, des fonctions spécifiques peuvent et doivent être prises en charge immédiatement. Par exemple, un observatoire mondial de l'IA peut être géré au sein d'un intermédiaire neutre existant capable de travailler de manière distribuée avec d'autres organismes et agences techniques à but non lucratif qualifiés dans les domaines liés à la recherche sur l'IA et à son impact sur la société.
Pour établir une structure de gouvernance internationale efficace en matière d'IA, cinq éléments symbiotiques sont nécessaires :
1. Une organisation technique neutre pour trier les cadres juridiques, les meilleures pratiques et les normes qui ont atteint le plus haut niveau d'acceptation au niveau mondial. Des réévaluations permanentes seront nécessaires à mesure que les technologies et les paradigmes réglementaires évolueront.
2. Un observatoire mondial de l'IA (GAIO) chargé d'établir des rapports normalisés, tant au niveau général qu'à celui des domaines spécifiques, sur les caractéristiques, les fonctions et les particularités des systèmes d'IA et des systèmes connexes mis sur le marché et déployés. Ces efforts permettront d'évaluer la conformité des systèmes d'IA avec les normes existantes qui ont été convenues. Les rapports devraient être mis à jour en temps aussi proche que possible du temps réel afin de faciliter la coordination des réponses précoces avant que des dommages significatifs n'aient été causés. Les observatoires qui existent déjà, comme celui de l'OCDE, ne représentent pas tous les pays et toutes les parties prenantes. Ils n'assurent pas non plus la surveillance, ne permettent pas une analyse suffisamment approfondie et ne remplissent pas toutes les tâches proposées ci-dessous.
- Le GAIO orchestrerait le débat et la coopération à l'échelle mondiale en réunissant des experts et d'autres parties prenantes pertinentes et inclusives, le cas échéant.
- Le GAIO publierait un rapport annuel sur l'état de l'IA qui analyserait les questions clés, les modèles, les efforts de normalisation et les investissements qui sont apparus au cours de l'année précédente, ainsi que les choix que les gouvernements, les dirigeants élus et les organisations internationales doivent prendre en considération. Il s'agirait d'une prospective stratégique et de scénarios axés principalement sur les technologies susceptibles d'être mises en œuvre dans les deux ou trois années à venir. Ces rapports favoriseront un accord aussi large que possible sur les objectifs et les normes applicables aux plateformes d'IA et aux systèmes spécifiques.
- Le GAIO développerait et mettrait à jour en permanence quatre registres. Ensemble, un registre des incidents indésirables et un registre des applications nouvelles, émergentes et (dans la mesure du possible) anticipées aideront les gouvernements et les régulateurs internationaux à se préoccuper des dommages potentiels avant le déploiement de nouveaux systèmes.
- Le troisième registre permettra de suivre l'historique des systèmes d'IA, y compris les informations sur les essais, les vérifications, les mises à jour et l'expérience des États qui les ont déployés. Cela aidera les nombreux pays qui ne disposent pas des ressources nécessaires pour évaluer ces systèmes. Un quatrième registre constituera un référentiel mondial pour les données, le code et la provenance des modèles.
3. Une capacité de gouvernance normative dotée de pouvoirs d'exécution limités afin de promouvoir le respect des normes mondiales pour l'utilisation éthique et responsable de l'IA et des technologies connexes. Cela pourrait impliquer la création d'un système de "passeport technologique" pour faciliter les évaluations entre les juridictions et les paysages réglementaires. Le soutien d'acteurs internationaux existants, tels que les Nations unies, conférerait une légitimité et un mandat à cette capacité. Elle pourrait être développée au sein de l'écosystème des Nations unies grâce à une collaboration entre l'UIT, l'UNESCO et le Haut-Commissariat aux droits de l'homme, avec le soutien d'organisations techniques mondiales telles que l'IEEE.
4. Une boîte à outils pour l'évaluation de la conformité et la certification des processus afin de promouvoir un comportement responsable et de contribuer aux mesures de confiance et aux efforts de transparence. Ces évaluations ne doivent pas être réalisées par les entreprises qui développent les systèmes d'IA ou les outils utilisés pour évaluer ces systèmes.
5. Le développement continu d'outils technologiques ("réglementation en boîte"), qu'ils soient intégrés dans des logiciels, du matériel ou les deux, est nécessaire pour la transparence, la responsabilité, la validation et les protocoles d'audit de sécurité, et pour traiter les questions liées à la préservation des droits humains, sociaux et politiques dans tous les biens numériques - chacun de ces éléments étant un élément essentiel des mesures de renforcement de la confiance. Développés avec d'autres acteurs de l'espace numérique, ces outils doivent faire l'objet d'un audit permanent pour détecter les activités erronées et être adaptés par la communauté scientifique et technique. Ils doivent être accessibles gratuitement à toutes les parties. L'assistance de la communauté des entreprises dans la fourniture et le développement d'outils et d'informations sur la faisabilité technique est essentielle, tout comme le seront leurs suggestions en matière de normes. Toutefois, il est inacceptable que la réglementation soit accaparée par ceux qui ont le plus à gagner financièrement. Les entreprises ne devraient pas jouer de rôle final dans la définition des normes, leur application ou les personnes à qui les outils devraient être mis à disposition.
Nous sommes pleinement conscients que ce squelette de cadre soulève d'innombrables questions sur la manière dont ces mécanismes de gouvernance sont mis en œuvre et gérés, sur la manière dont leur neutralité et leur fiabilité peuvent être établies et maintenues, ou sur la manière dont les désaccords politiques et techniques seront tranchés et les conséquences néfastes potentielles remédiées. Cependant, il est proposé pour stimuler une réflexion plus approfondie sur ce que nous avons appris de la promotion et de la gouvernance des technologies existantes, sur ce qui est nécessaire et sur les prochaines étapes à franchir.
Technologies émergentes et convergentes
Ce cadre a des applications potentielles significatives au-delà de l'espace de l'IA. S'ils sont efficaces, nombre des éléments proposés pourraient servir de modèles pour la gouvernance de domaines de découverte scientifique et d'innovation technologique qui n'ont pas encore été anticipés. Si l'IA générative rend urgente la mise en place d'une gouvernance internationale, de nombreux autres domaines existants, émergents et prévus de la découverte scientifique et de l'innovation technologique nécessiteront une surveillance. Ces domaines amplifient mutuellement leur développement et convergent d'une manière difficile à prévoir.
Cette proposition, élaborée par Carnegie Council for Ethics in International Affairs (CCEIA) en collaboration avec l'IEEE, s'appuie sur des idées et des concepts discutés lors de deux ateliers d'experts multidisciplinaires organisés en juin 2023 par Carnegie Council's AI & Equality Initiative et IEEE SA et accueillis par l'UNESCO à Paris et par l'UIT à Genève. La participation à ces ateliers n'implique toutefois pas l'approbation de ce cadre ou de toute idée spécifique qu'il contient.
Participants à l'atelier (par ordre alphabétique) :
Doaa Abu Elyounes, Phillippa Biggs, Karine Caunes, Raja Chatila, Sean Cleary, Nicolas Davis, Cristian de Francia, Meeri Haataja, Peggy Hicks, Konstantinos Karachalios, Anja Kaspersen, Gary Marcus, Doreen Bogdan-Martin, Preetam Maloor, Michael Møller, Corinne Momal-Vanian, Geoff Mulgan, Gabriela Ramos, Nanjira Sambuli, Reinhard Scholl, Clare Stark, Sofia Vallecorsa, Wendell Wallach, Frederic Werner.
Compte tenu de l'absence de droit contraignant, le rôle des fonctions non contraignantes dans la gouvernance internationale de l'IA
par Wendell Wallach, Anka Reuel et Anja Kaspersen
Résumé :
L'avènement des modèles de fondation a alerté les diplomates, les législateurs et les citoyens du monde entier sur la nécessité d'une gouvernance de l'IA qui amplifie les avantages tout en minimisant les risques et les impacts sociétaux indésirables. La perspective que les systèmes d'IA puissent faire l'objet d'abus, d'une mauvaise utilisation ou d'une atteinte involontaire à la stabilité internationale, à l'équité et aux droits de l'homme exige un degré élevé de coopération, de surveillance et de réglementation. Toutefois, les gouvernements n'agissent pas assez rapidement pour mettre en place un régime international de droit contraignant doté d'un pouvoir d'exécution. En l'absence d'un tel régime, les lois douces deviennent un levier pour aider à façonner la trajectoire du développement de l'IA et encourager la coopération internationale autour de sa gouvernance normative et technique. Dans ce document, nous donnons un aperçu des principales fonctions des normes douces dans le contexte de la gouvernance internationale de l'IA et des mécanismes permettant de les remplir. Nous proposons en outre la création d'un Observatoire mondial de l'IA, conformément à Mulgan et al. (2023), pour remplir les fonctions qui n'ont pas été (suffisamment) prises en charge par les institutions existantes ou qui dépassent leur mandat.
Arguments en faveur d'un observatoire mondial de l'IA (GAIO), 2023
Les auteurs de la proposition suivante du GAIO sont le professeur Sir Geoff Mulgan, UCL ; le professeur Thomas Malone, MIT ; Divya Siddharth et Saffron Huang, projet d'intelligence collective, Université d'Oxford ; Joshua Tan, directeur exécutif, projet de métagouvernance ; Lewis Hammond, Cooperative AI.
Nous suggérons ici une mesure plausible et complémentaire sur laquelle le monde pourrait se mettre d'accord dès maintenant comme condition nécessaire à une réglementation plus sérieuse de l'IA à l'avenir (la proposition s'appuie sur les travaux de collègues de l'UCL, du MIT, d'Oxford, du Projet d'intelligence collective, de Metagov et de la Cooperative AI Foundation ainsi que sur des propositions antérieures).
Un Observatoire mondial de l'IA (GAIO) fournirait les faits et les analyses nécessaires pour soutenir la prise de décision. Il synthétiserait les données scientifiques et factuelles nécessaires pour soutenir une diversité de réponses en matière de gouvernance et répondre au grand paradoxe d'un domaine fondé sur les données et dans lequel on sait si peu de choses sur ce qui se passe en matière d'IA et sur ce qui pourrait se produire à l'avenir. Il n'existe actuellement aucune institution chargée de conseiller le monde, d'évaluer et d'analyser les risques et les opportunités, et une grande partie des travaux les plus importants sont délibérément tenus secrets. Le GAIO comblerait cette lacune.
Le monde dispose déjà d'un modèle avec le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Créé en 1988 par les Nations unies avec des pays membres du monde entier, le GIEC fournit aux gouvernements des informations scientifiques qu'ils peuvent utiliser pour élaborer des politiques climatiques.
Un organisme comparable pour l'IA fournirait une base fiable de données, de modèles et d'interprétations pour guider la politique et la prise de décision plus large en matière d'IA. Un tel organisme devrait être très différent du GIEC à certains égards, car il devrait travailler beaucoup plus rapidement et de manière plus itérative. Mais dans l'idéal, il devrait, comme le GIEC, travailler en étroite collaboration avec les gouvernements en leur fournissant les orientations dont ils ont besoin pour élaborer des lois et des réglementations.
À l'heure actuelle, de nombreux organismes recueillent des données précieuses sur l'IA. Les États-nations suivent les évolutions à l'intérieur de leurs frontières, les entreprises privées rassemblent des données industrielles pertinentes et des organisations telles que l'Observatoire des politiques d'intelligence artificielle de l'OCDE se concentrent sur les politiques et les tendances nationales en matière d'IA. Des tentatives ont également été faites pour cartographier les options de gouvernance d'une IA plus avancée, comme celle de governance.ai. Bien que ces initiatives constituent un début crucial, il existe toujours un fossé entre la façon dont les scientifiques réfléchissent à ces questions et la façon dont le public, les gouvernements et les politiciens le font. En outre, une grande partie de l'IA reste opaque, souvent délibérément. Or, il est impossible de réglementer judicieusement ce que les gouvernements ne comprennent pas.
Le GAIO pourrait contribuer à combler cette lacune par le biais de six domaines d'activité principaux :
- La première est la création d'une base de données mondiale normalisée pour le signalement des incidents, axée sur les interactions critiques entre les systèmes d'IA et le monde réel. Par exemple, dans le domaine des risques biologiques, où l'IA pourrait contribuer à la création de pathogènes dangereux, un cadre structuré pour documenter les incidents liés à ces risques pourrait contribuer à atténuer les menaces. Une base de données centralisée enregistrerait les détails essentiels d'incidents spécifiques impliquant des applications d'IA et leurs conséquences dans divers contextes - en examinant des facteurs tels que l'objectif du système, les cas d'utilisation et les métadonnées sur les processus de formation et d'évaluation. Des rapports d'incidents normalisés pourraient permettre une coordination transfrontalière, réduisant ainsi les risques et les effets potentiels d'une mauvaise communication dans le cadre d'une probable course aux armements en matière d'IA, dont les conséquences seraient aussi désastreuses que celles de la course aux armements en matière d'armes nucléaires.
- Deuxièmement, le GAIO établirait un registre des systèmes d'IA cruciaux, axé sur les applications d'IA ayant les impacts sociaux et économiques les plus importants, mesurés en fonction du nombre de personnes touchées, du nombre d'heures-personnes d'interaction et des enjeux de leurs effets, afin de suivre leurs conséquences potentielles. Dans l'idéal, ce registre fixerait également des règles pour l'accès aux modèles, afin de permettre un examen approfondi. Singapour dispose déjà d'un registre et le gouvernement britannique envisage de mettre en place un système similaire au sein du pays, mais à un moment donné, des approches similaires devront être adoptées au niveau mondial.
- Troisièmement, le GAIO rassemblerait un ensemble commun de données et d'analyses sur les faits marquants de l'IA : dépenses, géographie, domaines clés, utilisations, applications (il existe de nombreuses sources à ce sujet, mais elles ne sont toujours pas rassemblées sous des formes facilement accessibles, et une grande partie des investissements reste très opaque).
- Quatrièmement, le GAIO rassemblerait les connaissances mondiales sur les incidences de l'IA dans des domaines critiques par l'intermédiaire de groupes de travail couvrant des sujets tels que les marchés du travail, l'éducation, les médias et les soins de santé. Ces groupes orchestreraient la collecte de données, l'interprétation et les prévisions, par exemple en ce qui concerne les effets potentiels de la formation continue sur les emplois et les compétences. Le GAIO inclurait également des mesures des impacts positifs et négatifs de l'IA, tels que la valeur économique créée par les produits de l'IA et l'impact des médias sociaux basés sur l'IA sur la santé mentale et la polarisation politique.
- Cinquièmement, le GAIO pourrait proposer aux gouvernements nationaux des options en matière de réglementation et de politique, ainsi qu'une assistance législative potentielle (en s'inspirant des leçons tirées de la promotion du DPI par Co-develop et de l'AIEA), en fournissant des lois et des règles modèles susceptibles d'être adaptées à différents contextes.
- Enfin, le GAIO orchestrerait le débat mondial par le biais d'un rapport annuel sur l'état de l'IA qui analyserait les questions clés, les tendances qui se dessinent et les choix que les gouvernements et les organisations internationales doivent prendre en considération. Il s'agirait d'un programme évolutif de prédictions et de scénarios axés principalement sur les technologies susceptibles d'être mises en œuvre dans les deux ou trois années à venir, qui pourrait s'appuyer sur des efforts existants tels que l'indice d'IA produit par l'université de Stanford.
Le GAIO devra également innover. Comme indiqué, il devrait agir beaucoup plus rapidement que le GIEC, en tentant d'évaluer rapidement les nouveaux développements. Il pourrait surtout utiliser des méthodes d'intelligence collective pour rassembler les contributions de milliers de scientifiques et de citoyens, ce qui est essentiel pour suivre les capacités émergentes dans un domaine complexe qui évolue rapidement. En outre, il pourrait introduire des méthodes de dénonciation similaires à celles du gouvernement américain, qui incite généreusement les employés à signaler les actions nuisibles ou illégales.
Pour réussir, le GAIO devrait bénéficier d'une légitimité comparable à celle du GIEC. Pour ce faire, il devra compter parmi ses membres des gouvernements, des organismes scientifiques et des universités, entre autres, et mettre l'accent sur les faits et l'analyse plutôt que sur la prescription, qui serait laissée aux mains des gouvernements. Idéalement, il devrait avoir des liens formels avec d'autres organismes jouant un rôle clair dans ce domaine - l'UIT, l'IEEE, l'UNESCO et le Conseil international de la science. Il devrait s'efforcer de collaborer aussi étroitement que possible avec d'autres organismes qui effectuent déjà un excellent travail dans ce domaine, qu'il s'agisse de l'OCDE ou de centres universitaires.
Les contributeurs aux travaux du GAIO seraient sélectionnés, comme pour le GIEC, sur la base de nominations par les organisations membres afin de garantir la profondeur de l'expertise, la diversité disciplinaire et la représentativité mondiale, ainsi qu'une transparence maximale pour minimiser les conflits d'intérêts réels et perçus.
La communauté de l'IA et les entreprises qui utilisent l'IA ont tendance à se méfier de l'intervention des pouvoirs publics, qu'ils considèrent souvent comme une source de restrictions. Mais l'ère de l'autogestion est désormais révolue. Ce qui est proposé ici est une organisation qui existe en partie pour les gouvernements, mais dont le travail principal est effectué par des scientifiques, en s'inspirant des tentatives réussies pour gouverner de nombreuses autres technologies, de la fécondation humaine et du clonage aux armes biologiques et nucléaires.
Ces dernières années, le système des Nations unies s'est efforcé de faire face à l'influence croissante des technologies numériques. Il a créé de nombreux comités et groupes d'experts, souvent avec des titres prestigieux, mais généralement sans grand effet. Le plus grand risque aujourd'hui est de voir se multiplier les efforts sans lien les uns avec les autres, sans qu'aucun d'entre eux n'atteigne une traction suffisante. Les médias et les hommes politiques ont été facilement distraits par des allégations farfelues de risque existentiel, et peu d'entre eux se sentent en confiance pour défier les grandes entreprises, surtout lorsqu'elles sont menacées par la perspective de voir leurs citoyens privés des avantages de l'IA ouverte ou de Google.
Il ne sera donc pas facile de légitimer un nouvel organisme. Le GAIO devra convaincre les acteurs clés des États-Unis, de la Chine, du Royaume-Uni, de l'UE et de l'Inde, entre autres, qu'il comblera une lacune vitale, et devra persuader les grandes entreprises que leurs tentatives de contrôle de l'agenda, sans mise en commun des connaissances et des évaluations mondiales, ont peu de chances de survivre longtemps. L'argument fondamental en faveur de sa création est qu'aucun pays ne bénéficiera d'une IA hors de contrôle, tout comme aucun pays ne bénéficie de pathogènes hors de contrôle.
La réaction des pays variera certainement. La Chine, par exemple, a récemment proposé d'interdire les masters en droit dont le contenu "subvertit le pouvoir de l'État, préconise le renversement du système socialiste, incite à diviser le pays ou porte atteinte à l'unité nationale". Les États-Unis, en revanche, sont susceptibles de vouloir une liberté maximale.
Mais le partage des connaissances et des analyses est la condition nécessaire pour que les nations puissent décider de leurs propres priorités. L'intelligence artificielle non gérée menace les infrastructures et les espaces d'information dont nous avons tous besoin pour penser, agir et prospérer. La mise en commun intelligente des connaissances est le point de départ indispensable pour mieux exploiter les avantages de l'intelligence artificielle et en éviter les dangers.
"Middleware" et modalités de la gouvernance internationale de l'IA
par Anja Kaspersen
L'essor rapide et l'adoption à grande échelle des technologies d'IA générative soulignent le besoin urgent d'une gouvernance globale qui englobe chaque étape d'un système d'IA tout au long des phases complexes de son histoire. Lorsque les technologies de l'IA sont utilisées dans les structures et les institutions de la société avec soin, prudence et cohérence, elles ont le potentiel de favoriser le progrès collectif et d'élever les capacités. Toutefois, si elles sont déployées de manière irréfléchie ou sans garde-fous, elles présentent des risques considérables. Elles peuvent déstabiliser les sociétés, mettre en péril la sécurité publique et individuelle, amplifier les inégalités existantes et saper les relations internationales. La portée et l'influence étendues de ces technologies d'IA soulignent l'urgence d'envisager de nouvelles modalités de gouvernance internationale et de nouvelles garanties.
Historiquement, le secteur de la recherche et du développement de l'IA a résisté à la surveillance gouvernementale en faveur de l'autorégulation, tandis que les gouvernements ont pris du retard dans la prise en compte de la nécessité d'une surveillance. Cette approche est inadéquate. Alors qu'une poignée d'entreprises contrôlent de manière dominante les technologies de l'IA, qui pénètrent tous les aspects de notre vie, et que les défis dans divers domaines continuent de se multiplier, un déséquilibre des pouvoirs se fait jour. La nécessité d'une surveillance mondiale et éthique rigoureuse et d'une action réglementaire décisive devient indéniable.
De nombreux États et groupes régionaux mettent en œuvre des restrictions ou envisagent de le faire, en particulier à mesure que les investissements dans les technologies de modèles linguistiques nationaux alimentés par l'IA et les applications en aval augmentent. Toutefois, certains n'ont pas entamé de délibérations formelles, tandis que d'autres s'inquiètent d'être à la traîne dans ce domaine en évolution rapide en raison de leur inexpérience technologique et de leur capacité d'engagement limitée. Il en résulte un paysage de gouvernance fragmenté, marqué par une prolifération disparate de modèles et une mosaïque de règles qui reflètent des normes culturelles et des objectifs stratégiques différents. En particulier, seule une poignée de lois ont été adoptées pour traiter spécifiquement de l'IA.
Dans une certaine mesure, la concurrence dans le paysage réglementaire peut être bénéfique : une gouvernance technologique centralisée peut étouffer l'innovation et la souplesse. Toutefois, une trop grande fragmentation peut permettre à des pratiques contraires à l'éthique de s'établir par le biais du "forum shopping", dans lequel les entreprises s'orientent vers des juridictions où les réglementations sont plus clémentes. Pour faire face à ce risque, il faut une collaboration à l'échelle mondiale.
Il est clair que l'IA a besoin d'un cadre de gouvernance internationale personnalisé s'inspirant des modèles développés dans des organisations telles que le GIEC pour évaluer l'ampleur et les impacts du changement climatique, l'AIEA pour renforcer la contribution de l'énergie atomique à la paix, à la santé et à la prospérité tout en veillant à ce qu'elle ne soit pas utilisée à des fins militaires, et le CERN pour faire progresser la recherche en physique fondamentale. Cette approche, qui réunit des fonctions politiques et techniques, servirait de pont entre les technologues et les décideurs politiques en équilibrant la promotion et le contrôle afin de combler les lacunes des mécanismes et des approches actuels. En outre, un tel cadre devrait promouvoir la coopération et le dialogue entre les parties prenantes et impliquer le public dans des discussions significatives et informées.
L'objectif final devrait être une réglementation mondiale contraignante, fondée sur des instruments de surveillance, de notification, de vérification et, le cas échéant, d'application, idéalement étayée par un traité. Toutefois, il convient de prendre dès à présent des mesures immédiates en vue de la mise en place de ce cadre. Ces actions intermédiaires peuvent être comparées à un "logiciel intermédiaire" en informatique, qui améliore l'interopérabilité entre divers appareils et systèmes. Cet "intergiciel" de gouvernance peut non seulement relier et aligner les efforts existants, mais aussi ouvrir la voie à des mesures plus contraignantes à l'avenir.
Les entités et les fournisseurs d'"intergiciels" pourraient être établis sous les auspices d'organisations existantes, nouvellement créées, ou une combinaison intégrant d'autres initiatives ayant fait la preuve de leur légitimité mondiale et de leur compétence technique. Les activités proposées ci-dessous ne doivent pas nécessairement être réalisées par une seule entité et les fonctions peuvent être réparties.
En cherchant à mettre en place une gouvernance mondiale de l'IA, nous sommes confrontés à deux risques pressants : l'échec potentiel d'efforts bien intentionnés mais trop ambitieux et des propositions qui limitent leur portée à des objectifs admirables. Les domaines et modalités proposés ci-dessous visent à surmonter les divergences politiques, la bureaucratie organisationnelle, les récits technologiques déterministes et les efforts visant à maintenir l'autorégulation de l'industrie. Il s'agit de propositions tangibles conçues pour aider à naviguer dans les complexités de la gouvernance technologique mondiale et à surmonter la fragmentation. Bien que le présent document n'entre pas dans les détails, il est évident que certains des domaines proposés pour un examen plus approfondi pourraient nécessiter des concessions en ce qui concerne la propriété intellectuelle émergente et existante. Il est admis que les impératifs de sécurité nationale joueront un rôle important dans la manière dont ces questions seront abordées. Par conséquent, il sera essentiel pour l'acceptation de toute proposition de mettre en évidence les avantages et les bénéfices collectifs d'une gouvernance technologique solide pour la stabilité internationale.
Il est important de noter que la liste n'est pas classée par ordre d'importance. Au contraire, chaque élément est présenté comme une approche potentielle et un domaine à explorer plus avant. Certains d'entre eux peuvent être immédiatement pertinents, d'autres non. Les activités suggérées pour les entités de gouvernance des intergiciels sont basées sur le cadre pour la gouvernance internationale de l'IA. Ce cadre est le fruit d'une collaboration entre l'initiative "Intelligence artificielle et égalité" (AIEI) à l'adresse Carnegie Council pour l'éthique dans les affaires internationales (CCEIA) et l'association de normalisation de l'Institut des ingénieurs électriciens et électroniciens (IEEE SA). Les modalités proposées ci-dessous sont structurées de manière à refléter les éléments qui conviennent à une approche intermédiaire plus fonctionnelle pour faciliter et accélérer la transition vers un accord international formel, à condition que les États s'accordent et conviennent d'une voie à suivre réalisable.
Centre d'impact de l'IA : Un centre mondial, développé en étroite collaboration avec les communautés techniques concernées sur la base des objectifs visés, pourrait surveiller les systèmes d'IA à fort impact, leurs utilisations et les cas d'avant-garde dans le monde entier. Un tel registre peut promouvoir la collaboration en documentant à la fois les données de formation et les résultats et impacts ultérieurs de ces systèmes.
Évaluation des niveaux d'acceptation : L'évaluation et la publication des cadres normatifs, des réglementations, des meilleures pratiques et des normes en matière de gouvernance de l'IA qui ont été les plus acceptés au niveau mondial et dont l'impact a été démontré peuvent favoriser leur adoption. Ceci est particulièrement pertinent lorsque l'on considère l'accès aux technologies et aux modèles d'IA générative, la transparence des données d'entraînement, les ressources informatiques, l'impact environnemental, les déclarations concernant la maturité des produits et l'utilisation des données communes.
Registre de lignage et de provenance des données : La saisie de l'historique de la dérivation d'un produit de données, à partir de ses sources d'origine, est essentielle pour établir une lignée de données fiable et maintenir des pratiques solides en matière de provenance des données. S'appuyer uniquement sur le filigrane en tant qu'initiative autonome est insuffisant, car il concerne principalement la propriété et le droit d'auteur. Pour garantir une traçabilité et une intégrité complètes des données, une approche globale combinant le filigrane et le suivi détaillé de la lignée est nécessaire.
Cadres interopérables de partage des données : Cadres de partage de données interopérables : Pour une surveillance mondiale efficace, il est primordial d'élaborer et d'adopter des normes et des cadres internationaux qui normalisent les pratiques de gouvernance des données dans toutes les régions. Cela devient particulièrement crucial si l'on considère l'énorme volume de données privées utilisées dans la création de technologies propriétaires. En établissant ces cadres harmonisés, nous pouvons promouvoir une meilleure interopérabilité et renforcer la confiance du public dans les initiatives mondiales de partage des données. Cet effort de collaboration exige des actions combinées de la part des gouvernements, des organisations et des acteurs de l'industrie afin de garantir que les échanges de données sont transparents, correctement divulgués et sécurisés pour toutes les parties concernées.
L'"équipe rouge" mondiale : L'établissement de listes d'experts indépendants et pluridisciplinaires, souvent appelées "équipes rouges",avec des mises à jour tous les deux ans pour traiter les conflits d'intérêts, et dont les participants sont tenus de déclarer toute implication dans les développements liés à l'IA. Ces équipes seraient chargées d'examiner les implications positives et négatives de l'IA dans différents secteurs, de développer des outils scientifiques et techniques pour évaluer la sécurité et l'impact des systèmes d'IA par l'analyse de la durée et de la chaîne de valeur, et d'anticiper les développements futurs.
Conseil d'alignement technologique : La mise en place d'un organe de consultation permanent qui se réunit tous les trimestres, composé d'entreprises technologiques mondiales pour partager des informations sur la gouvernance en temps réel, peut favoriser l'avancement cohésif et synergique des technologies d'IA interopérables et traçables. Cette méthode met l'accent sur le dialogue et la collaboration continus entre les géants de la technologie et les parties prenantes. Elle permet d'éviter une concentration excessive du pouvoir et de promouvoir la transparence, l'interopérabilité et la traçabilité dans la poursuite d'un développement responsable de l'IA.
Meilleures pratiques au niveau mondial : Des modèles de politiques et des systèmes de sauvegarde modèles pourraient être conçus pour reconnaître les caractéristiques d'utilisation universelle de la technologie de l'IA. Ces systèmes devraient viser à trouver un équilibre entre l'encouragement des applications bénéfiques de l'IA et la mise en place de contrôles rigoureux pour contrer les utilisations adverses et réduire les conséquences néfastes. L'adoption de cette stratégie pourrait offrir des conditions de concurrence plus équitables, en particulier pour les nations et les entités qui s'efforcent de suivre les progrès technologiques rapides et les environnements réglementaires changeants. Il est essentiel de parvenir à un accord sur l'équilibre entre l'encouragement des applications bénéfiques de l'IA et la mise en place de contrôles rigoureux pour contrer les utilisations malveillantes et réduire les conséquences néfastes si l'on veut réaliser des progrès significatifs en matière de gouvernance de l'IA (et d'autres technologies émergentes).
Rapport annuel : Un rapport annuel compilant et synthétisant les recherches sur les tendances, les investissements et les lancements de produits émergents dans le domaine de l'IA, et évaluant les cadres de gouvernance pertinents, pourrait changer la donne. Ce rapport couvrirait également les moteurs mondiaux, les menaces potentielles, les acteurs de la menace et les opportunités. En proposant des scénarios potentiels, en fournissant des recommandations exploitables aux gouvernements et aux organisations internationales, et en incluant un calendrier détaillé pour éviter les retards dans les actions de suivi, il renforcerait considérablement la prise de décision éclairée et élèverait le niveau du discours public.
Base de données mondiale sur les incidents : Une base de données mondiale, conçue pour le signalement anonyme et identifié d'incidents importants liés à l'IA et s'appuyant sur les efforts locaux existants, pourrait réduire les obstacles au signalement et renforcer les incitations à le faire. Cet outil prospectif devrait être géré par une entité intermédiaire ayant démontré ses capacités techniques à évaluer les réclamations. Il pourrait catalyser la collaboration transfrontalière et garantir une analyse cohérente des menaces. Cette base de données offrirait une plateforme sécurisée pour discuter et évaluer les menaces émergentes, améliorant ainsi la préparation mondiale et servant de mesure pour renforcer la confiance.
Culture technologique : L'entité ou les entités doivent collaborer avec les établissements d'enseignement et tirer parti des normes, du matériel et des plateformes librement accessibles sous licence Creative Commons pour promouvoir la maîtrise de l'IA. Cette démarche s'aligne sur l'initiative d'orientation de l'UNESCO. Ces initiatives soulignent l'importance d'investir dans l'éducation, en donnant aux individus les moyens de naviguer efficacement dans le paysage de l'IA et d'exploiter son potentiel pour l'amélioration personnelle et sociétale. Tous les programmes d'enseignement devraient être adaptés, et des incitations et des exigences devraient être introduites pour que les entreprises expliquent comment leur technologie fonctionne, comment les systèmes sont construits, par qui, en utilisant quelles ressources et dans quel but. De cette manière, les gens, en particulier les enfants, percevront organiquement ces systèmes comme des outils informatiques avancés mais imparfaits, et s'engageront avec eux en conséquence.
Passeports technologiques : Un système de "passeport technologique" pourrait rationaliser les évaluations dans les différentes juridictions, en permettant aux parties prenantes d'examiner les résultats d'une technologie tout au long de son parcours. Ce passeport serait un document évolutif dans lequel les systèmes d'IA accumuleraient des "tampons", signifiant que des experts ont vérifié l'adhésion du système à des critères prédéterminés. Les tampons seraient attribués à des moments clés de l'évolution du système et de sa chaîne de valeur, par exemple lorsqu'il intègre de nouvelles données, se connecte à d'autres systèmes, est mis hors service ou est utilisé à de nouvelles fins.
Référentiel de normes internationales : Établir un référentiel complet, éventuellement géré par une entité intermédiaire dans un environnement universitaire, qui centralise les références aux normes existantes en matière d'IA, élucide les disparités, évalue la nécessité de mises à jour à la lumière de l'évolution du paysage technologique, illustre les applications pratiques et s'attaque aux préoccupations éthiques et aux conflits d'intérêts. Ce référentiel renforcerait la transparence, guiderait la prise de décision et encouragerait la collaboration pour se prémunir contre les applications malencontreuses sur le plan éthique, tout en empêchant que des normes influencées par des conflits d'intérêts ne supplantent une gouvernance solide. Il permettrait aux parties intéressées de naviguer dans les ressources disponibles et de déterminer les meilleures approches pour les cas d'utilisation. Il est important de noter que ce référentiel serait librement accessible, même si certaines des normes référencées peuvent encore être la propriété des organismes de normalisation qui les ont émises.
Bacs à sable en libre accès : Créer des cadres pour des bacs à sable ou des bancs d'essai à source ouverte afin de permettre aux développeurs et aux agents de mise en œuvre de tester, valider et vérifier de manière éthique et transparente les capacités d'IA, qu'il s'agisse d'interactions homme-machine ou machine-machine, et d'assurer la supervision technique de ces capacités. Ces cadres pour les bacs à sable seront conçus en gardant à l'esprit les architectures de solutions ouvertes et reproductibles. Cette approche à code source ouvert offre non seulement un potentiel important pour les applications dans le domaine de l'IA, mais elle tient également compte de la convergence sans précédent des technologies que l'IA permet. En cas de succès, de nombreux composants proposés dans ces bacs à sable à source ouverte pourraient servir de modèles pour régir des domaines de découverte scientifique et d'innovation technologique qui n'ont pas encore été anticipés.
Outils technologiques : Le développement continu d'outils logiciels et matériels, y compris les méthodes cryptographiques et les protocoles de sécurité, constitue la base de la création de systèmes solides, sûrs et fiables pour se protéger contre les cybermenaces, la mauvaise manipulation des données, l'extraction de données sans scrupules et les vulnérabilités qui y sont liées. Ce développement peut également améliorer l'efficacité des processus, ce qui peut se traduire par des économies substantielles de temps et d'argent. En outre, pour cultiver une culture de la sécurité qui aille au-delà des approches techniques, il est important d'encourager le partage des connaissances et de l'expertise entre un large éventail de parties prenantes au niveau mondial. Cet effort de collaboration peut favoriser le perfectionnement continu d'outils gratuits, accessibles et adaptés à un paysage technologique en constante évolution.
Forums politiques collaboratifs : Une assemblée spécialisée, semblable aux conférences des États parties souvent associées aux traités internationaux, pourrait servir de forum pour parvenir à des accords concernant l'interdiction ou la restriction des technologies de l'IA et de leurs applications dans des situations qui présentent des risques indésirables avec des conséquences potentielles pour la stabilité et la sécurité internationales. De tels rassemblements pourraient renforcer la gouvernance des technologies et de l'IA, même en l'absence de traité formel. Cela s'avérerait particulièrement utile dans les scénarios où les modèles d'IA et leurs applications en aval peuvent entrer en conflit avec les cadres normatifs établis, les instruments de contrôle des armements, ainsi que les principes liés à la politique, à la société et aux droits de l'homme.
Portail de déclaration : L'établissement d'un "portail de déclaration", inspiré du régime de contrôle des armes et de non-prolifération, exigeant des États et des entreprises qu'ils divulguent leurs développements, approches et déploiements en matière d'IA, encouragerait la transparence et l'adhésion à des normes et standards convenus au niveau mondial, favoriserait la coopération technique internationale et l'échange de connaissances, et servirait de mesure de confiance.
Certification mondiale : Élaborer des programmes de certification mondiaux visant à intégrer dans les processus d'IA des principes éthiques universellement reconnus, y compris la prise en compte des points de tension et des compromis. Idéalement, ces programmes de certification devraient être menés en collaboration avec des organisations techniques professionnelles crédibles, en tirant parti de leur expertise avérée dans l'élaboration de tels programmes afin de garantir que le processus de certification va au-delà des concepts théoriques et fournit des solutions pratiques pour aborder les considérations éthiques qui sont clairement définies dans les instruments normatifs existants relatifs aux droits politiques, sociaux, environnementaux et de l'homme.
***
Un cadre mondial de gouvernance des technologies et de l'IA doit être à la fois souple et flexible. La promotion proactive du dialogue et des mesures de confiance peut rendre la mise en œuvre d'un cadre mondial plus fiable et faciliter des réponses rapides aux questions pertinentes. Ainsi, la gouvernance d'une technologie qui évolue rapidement nécessite une approche globale et fédérée, couvrant le parcours de chaque technologie depuis sa création jusqu'à son obsolescence.
Si la contribution des entreprises est précieuse pour façonner tout cadre technologique, le maintien d'une approche ouverte, communautaire et indépendante est essentiel pour la transparence. Tout cadre doit clairement définir la responsabilité, en précisant ce qui est développé, par qui, sous quelle direction, selon quelles normes et dans quel but. Ce faisant, il peut inciter les entreprises à mettre en avant leur engagement en faveur d'un déploiement transparent, sûr et responsable de l'IA et favoriser une collaboration plus large entre les parties prenantes.
De nombreuses questions restent en suspens concernant la navigation dans différents paysages réglementaires, l'atténuation des tensions géopolitiques et l'équilibre entre les différents intérêts des entreprises. Par exemple, comment les mécanismes proposés seront-ils mis en œuvre et contrôlés ? Comment pouvons-nous préserver l'autonomie politique, l'indépendance des entreprises, l'intégrité technique et la fiabilité des personnes, des institutions et des entités intermédiaires qui influencent le développement et l'utilisation de ces technologies ? En cas de désaccords politiques et techniques, qui les résoudra ? La Cour internationale de justice a-t-elle un rôle à jouer, par exemple, pour régler les différends juridiques conformément aux lois internationales et fournir des orientations sur les questions liées à l'IA ayant des implications transnationales ? Par ailleurs, est-il nécessaire d'établir un organe de règlement judiciaire distinct pour traiter les plaintes potentielles relatives à des utilisations nuisibles ayant des implications mondiales ?
Si nous parvenons à trouver des réponses à ces questions et à d'autres qui ne manqueront pas de se matérialiser à mesure que notre utilisation de ces technologies évoluera, un cadre mondialement accepté pour la gouvernance de l'IA pourrait servir de tremplin pour régir les futures avancées scientifiques et technologiques, au-delà de l'IA.
A propos de cette proposition
Cette proposition est le fruit d'une collaboration entre l'initiative "Intelligence artificielle et égalité" (AIEI) à l'adresse Carnegie Council pour l'éthique dans les affaires internationales (CCEIA) et l'association de normalisation de l'Institut des ingénieurs électriciens et électroniciens (IEEE SA). La proposition bénéficie de l'expertise et de l'expérience d'un grand nombre de personnes brillantes travaillant dans le domaine de l'intelligence artificielle et de la gouvernance.
Créée en 2020, l'AIEI est une communauté de pratique dynamique et axée sur les résultats qui se consacre à l'examen des impacts de l'IA sur l'égalité sociétale. Avec pour objectif de favoriser l'intégration et l'autonomisation éthiques dans les progrès de l'IA, elle défend le développement et le déploiement de technologies d'IA justes, inclusives et fermement ancrées dans des principes pragmatiques et responsables. Cette initiative dynamique rassemble un comité consultatif représentatif au niveau mondial, composé de membres issus de plus de 20 nations sur tous les continents. Ces conseillers sont des sommités dans leurs domaines respectifs, issus du monde universitaire, d'organismes gouvernementaux, d'institutions multinationales, d'ONG et du secteur des affaires, alliant connaissances technologiques et expertise géopolitique.
NOTE DE BAS DE PAGE :
Le cadre pour la gouvernance internationale de l'IA propose cinq composantes symbiotiques :
(1) Organisation technique neutre chargée d'évaluer en permanence les cadres juridiques, les meilleures pratiques et les normes les mieux acceptées au niveau mondial.
(2) Une capacité de gouvernance normative avec des pouvoirs d'exécution limités pour promouvoir le respect des normes mondiales pour l'utilisation éthique et responsable de l'IA et des technologies connexes.
(3.) Une boîte à outils permettant aux organisations d'évaluer et de certifier la conformité aux normes.
(4) Le développement continu d'outils technologiques d'aide à la gouvernance par l'IA, qui peuvent contribuer à la collecte de données utiles à la prise de décision, à la validation et à l'audit des systèmes existants, et à l'atténuation des risques le cas échéant.
(5) Création d'un Observatoire mondial de l'IA (GAIO), comblant le fossé de compréhension entre les scientifiques et les décideurs politiques et remplissant les fonctions définies ci-dessous qui ne sont pas déjà remplies par d'autres institutions.
DES RESSOURCES SUPPLÉMENTAIRES :
AI Red Team/Hack the Future : Redéfinir les équipes d'intervention, juillet 2023
Déclaration de l'Association for Computer Machinery sur l'IA générative, septembre 2023
Credo.ai : L'état d'esprit des hackers : 4 leçons pour l'IA tirées de DEF CON 31, août 2023