Vue d'ensemble
Pour promouvoir les avantages des technologies innovantes, il faut s'attaquer aux perturbations sociétales potentielles et assurer la sécurité publique. Le déploiement rapide des applications génératives de l'intelligence artificielle (IA) souligne l'urgence de mettre en place des mécanismes de gouvernance robustes pour un contrôle éthique et juridique efficace. La présente note conceptuelle propose la création immédiate d'un observatoire mondial de l'IA soutenu par des mécanismes consultatifs coopératifs afin d'identifier et de diffuser les meilleures pratiques, les normes et les outils pour une gouvernance internationale globale des systèmes d'IA.
Objectif
Cette initiative s'intéresse aux moyens pratiques de mettre en place un cadre de gouvernance qui s'appuie sur les ressources existantes et peut avoir un effet immédiat. Ce cadre permettrait une utilisation constructive de l'IA et des technologies connexes tout en aidant à prévenir les utilisations immatures ou abusives qui perturbent la société ou menacent la sécurité publique et la stabilité internationale.
Des principes à la pratique
Il existe déjà de nombreux codes de conduite ou listes de principes pour l'utilisation responsable de l'IA. Ceux publiés par l'UNESCO et l'OCDE/G20 sont les deux plus largement approuvés. Ces dernières années, diverses institutions se sont efforcées de mettre ces principes en pratique par le biais de normes spécifiques à certains domaines. Quelques États et régions ont formulé des propositions et même adopté des contraintes concernant des utilisations spécifiques de l'IA. Par exemple, la Commission européenne a publié un cadre juridique complet (EU AI Act) visant à garantir des systèmes d'IA sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement, supervisés par des humains. Les principes de Pékin en matière d'intelligence artificielle ont été suivis de nouvelles réglementations imposées aux entreprises et aux applications par l'administration chinoise du cyberespace. Aux États-Unis, diverses initiatives au niveau fédéral et au niveau des États soulignent la nécessité d'un cadre législatif. Le secrétaire général des Nations unies a également proposé récemment la création d'un groupe d'experts de haut niveau chargé d'envisager une surveillance de l'IA semblable à celle de l'AIEA.
Cadre proposé
La gouvernance de l'IA est difficile car elle a un impact sur presque toutes les facettes de la vie moderne. Les défis vont de l'interopérabilité à la garantie que les applications contribuent à la réalisation des ODD et ne la compromettent pas. Ces défis changent tout au long du cycle de vie d'un système et au fur et à mesure que les technologies évoluent.
Un cadre de gouvernance mondial doit s'appuyer sur le travail d'institutions existantes respectées et sur de nouvelles initiatives remplissant des tâches essentielles, telles que le contrôle, la vérification et l'application de la conformité. Seule une approche véritablement souple et flexible de la gouvernance peut permettre une surveillance continue de technologies en évolution qui ont de vastes applications, avec des calendriers de réalisation et de déploiement différents, et une pléthore de normes et de pratiques ayant des objectifs différents.
Compte tenu des divergences politiques sur les questions de politique technologique et de gouvernance, la création d'un nouvel organisme mondial prendra du temps. Néanmoins, des fonctions spécifiques peuvent et doivent être prises en charge immédiatement. Par exemple, un observatoire mondial de l'IA peut être géré au sein d'un intermédiaire neutre existant capable de travailler de manière distribuée avec d'autres organismes techniques et agences à but non lucratif qualifiés dans les domaines liés à la recherche sur l'IA et à son impact sur la société.
Pour mettre en place une structure internationale efficace de gouvernance de l'IA, cinq éléments symbiotiques sont nécessaires :
1. Une organisation technique neutre pour trier les cadres juridiques, les meilleures pratiques et les normes qui ont atteint le plus haut niveau d'acceptation au niveau mondial. Des réévaluations permanentes seront nécessaires à mesure que les technologies et les paradigmes réglementaires évolueront.
2. Un observatoire mondial de l'IA (GAIO) chargé d'établir des rapports normalisés, tant au niveau général qu'à celui des domaines spécifiques, sur les caractéristiques, les fonctions et les particularités des systèmes d'IA et des systèmes connexes mis sur le marché et déployés. Ces efforts permettront d'évaluer la conformité des systèmes d'IA avec les normes existantes qui ont été convenues. Les rapports devraient être mis à jour en temps aussi proche que possible du temps réel afin de faciliter la coordination des réponses précoces avant que des dommages significatifs n'aient été causés. Les observatoires qui existent déjà, comme celui de l'OCDE, ne représentent pas tous les pays et toutes les parties prenantes. Ils n'assurent pas non plus la surveillance, ne permettent pas une analyse suffisamment approfondie et ne remplissent pas toutes les tâches proposées ci-dessous.
- Le GAIO orchestrerait le débat et la coopération à l'échelle mondiale en réunissant des experts et d'autres parties prenantes pertinentes et inclusives, le cas échéant.
- Le GAIO publierait un rapport annuel sur l'état de l'IA qui analyserait les questions clés, les modèles, les efforts de normalisation et les investissements qui sont apparus au cours de l'année précédente, ainsi que les choix que les gouvernements, les dirigeants élus et les organisations internationales doivent prendre en considération. Il s'agirait d'une prospective stratégique et de scénarios axés principalement sur les technologies susceptibles d'être mises en œuvre dans les deux ou trois années à venir. Ces rapports favoriseront un accord aussi large que possible sur les objectifs et les normes applicables aux plateformes d'IA et aux systèmes spécifiques.
- Le GAIO développerait et mettrait à jour en permanence quatre registres. Ensemble, un registre des incidents indésirables et un registre des applications nouvelles, émergentes et (dans la mesure du possible) anticipées aideront les gouvernements et les régulateurs internationaux à se préoccuper des dommages potentiels avant le déploiement de nouveaux systèmes.
- Le troisième registre permettra de suivre l'historique des systèmes d'IA, y compris les informations sur les essais, les vérifications, les mises à jour et l'expérience des États qui les ont déployés. Cela aidera les nombreux pays qui ne disposent pas des ressources nécessaires pour évaluer ces systèmes. Un quatrième registre constituera un référentiel mondial pour les données, le code et la provenance des modèles.
3. Une capacité de gouvernance normative dotée de pouvoirs d'exécution limités afin de promouvoir le respect des normes mondiales pour l'utilisation éthique et responsable de l'IA et des technologies connexes. Cela pourrait impliquer la création d'un système de "passeport technologique" pour faciliter les évaluations entre les juridictions et les paysages réglementaires. Le soutien d'acteurs internationaux existants, tels que les Nations unies, conférerait une légitimité et un mandat à cette capacité. Elle pourrait être développée au sein de l'écosystème des Nations unies grâce à une collaboration entre l'UIT, l'UNESCO et le Haut-Commissariat aux droits de l'homme, avec le soutien d'organisations techniques mondiales telles que l'IEEE.
4. Une boîte à outils pour l'évaluation de la conformité et la certification des processus afin de promouvoir un comportement responsable et de contribuer aux mesures de confiance et aux efforts de transparence. Ces évaluations ne doivent pas être réalisées par les entreprises qui développent les systèmes d'IA ou les outils utilisés pour évaluer ces systèmes.
5. Le développement continu d'outils technologiques ("réglementation en boîte"), qu'ils soient intégrés dans des logiciels, du matériel ou les deux, est nécessaire pour la transparence, la responsabilité, la validation et les protocoles d'audit de sécurité, et pour traiter les questions liées à la préservation des droits humains, sociaux et politiques dans tous les biens numériques - chacun de ces éléments étant un élément essentiel des mesures de renforcement de la confiance. Développés avec d'autres acteurs de l'espace numérique, ces outils doivent faire l'objet d'un audit permanent pour détecter les activités erronées et être adaptés par la communauté scientifique et technique. Ils doivent être accessibles gratuitement à toutes les parties. L'assistance de la communauté des entreprises dans la fourniture et le développement d'outils et d'informations sur la faisabilité technique est essentielle, tout comme le seront leurs suggestions en matière de normes. Toutefois, il est inacceptable que la réglementation soit accaparée par ceux qui ont le plus à gagner financièrement. Les entreprises ne devraient pas jouer de rôle final dans la définition des normes, leur application ou les personnes à qui les outils devraient être mis à disposition.
Nous sommes pleinement conscients que ce squelette de cadre soulève d'innombrables questions sur la manière dont ces mécanismes de gouvernance sont mis en œuvre et gérés, sur la manière dont leur neutralité et leur fiabilité peuvent être établies et maintenues, ou sur la manière dont les désaccords politiques et techniques seront tranchés et les conséquences néfastes potentielles remédiées. Cependant, il est proposé pour stimuler une réflexion plus approfondie sur ce que nous avons appris de la promotion et de la gouvernance des technologies existantes, sur ce qui est nécessaire et sur les prochaines étapes à franchir.
Technologies émergentes et convergentes
Ce cadre a des applications potentielles importantes au-delà de l'espace de l'IA. S'ils sont efficaces, nombre des éléments proposés pourraient servir de modèles pour la gouvernance de domaines de découverte scientifique et d'innovation technologique qui n'ont pas encore été anticipés. Si l'IA générative rend urgente la mise en place d'une gouvernance internationale, de nombreux autres domaines existants, émergents et prévus de la découverte scientifique et de l'innovation technologique nécessiteront une surveillance. Ces domaines amplifient le développement des uns et des autres et convergent d'une manière difficile à prévoir.
Cette proposition, élaborée par Carnegie Council for Ethics in International Affairs (CCEIA) en collaboration avec l'IEEE, s'inspire des idées et des concepts discutés lors de deux ateliers d'experts multidisciplinaires organisés en juin 2023 par Carnegie Council's AI & Equality Initiative et IEEE SA et accueillis par l'UNESCO à Paris et l'UIT à Genève. La participation à ces ateliers n'implique toutefois pas l'approbation de ce cadre ou de toute idée spécifique qu'il contient.
Participants à l'atelier (par ordre alphabétique) :
Doaa Abu Elyounes, Phillippa Biggs, Karine Caunes, Raja Chatila, Sean Cleary, Nicolas Davis, Cristian de Francia, Meeri Haataja, Peggy Hicks, Konstantinos Karachalios, Anja Kaspersen, Gary Marcus, Doreen Bogdan-Martin, Preetam Maloor, Michael Møller, Corinne Momal-Vanian, Geoff Mulgan, Gabriela Ramos, Nanjira Sambuli, Reinhard Scholl, Clare Stark, Sofia Vallecorsa, Wendell Wallach, Frederic Werner.
Carnegie Council for Ethics in International Affairs est un organisme indépendant et non partisan à but non lucratif. Les opinions exprimées dans cet article sont celles des auteurs et ne reflètent pas nécessairement la position de Carnegie Council.