L'essor rapide et l'adoption à grande échelle des technologies d'IA générative soulignent le besoin urgent d'une gouvernance globale qui englobe chaque étape d'un système d'IA tout au long des phases complexes de son histoire. Lorsque les technologies de l'IA sont utilisées dans les structures et les institutions de la société avec soin, prudence et cohérence, elles ont le potentiel de favoriser le progrès collectif et d'élever les capacités. Toutefois, si elles sont déployées de manière irréfléchie ou sans garde-fous, elles présentent des risques considérables. Elles peuvent déstabiliser les sociétés, mettre en péril la sécurité publique et individuelle, amplifier les inégalités existantes et saper les relations internationales. La portée et l'influence étendues de ces technologies d'IA soulignent l'urgence d'envisager de nouvelles modalités de gouvernance internationale et de nouveaux garde-fous.
Historiquement, le secteur de la recherche et du développement de l'IA a résisté à la surveillance gouvernementale en faveur de l'autorégulation, tandis que les gouvernements ont pris du retard dans la prise en compte de la nécessité d'une surveillance. Cette approche est inadéquate. Alors qu'une poignée d'entreprises contrôlent de manière dominante les technologies de l'IA, qui pénètrent tous les aspects de notre vie, et que les défis dans divers domaines continuent de se multiplier, un déséquilibre des pouvoirs se fait jour. La nécessité d'une surveillance mondiale et éthique rigoureuse et d'une action réglementaire décisive devient indéniable.
De nombreux États et groupes régionaux mettent en œuvre des restrictions ou envisagent de le faire, en particulier à mesure que les investissements dans les technologies de modèles linguistiques nationaux alimentés par l'IA et les applications en aval augmentent. Toutefois, certains n'ont pas entamé de délibérations formelles, tandis que d'autres s'inquiètent d'être à la traîne dans ce domaine en évolution rapide en raison de leur inexpérience technologique et de leur capacité d'engagement limitée. Il en résulte un paysage de gouvernance fragmenté, marqué par une prolifération disparate de modèles et une mosaïque de règles qui reflètent des normes culturelles et des objectifs stratégiques différents. En particulier, seule une poignée de lois ont été adoptées pour traiter spécifiquement de l'IA.
Dans une certaine mesure, la concurrence dans le paysage réglementaire peut être bénéfique : une gouvernance technologique centralisée peut étouffer l'innovation et la souplesse. Toutefois, une trop grande fragmentation peut permettre à des pratiques contraires à l'éthique de s'établir par le biais du "forum shopping", dans lequel les entreprises s'orientent vers des juridictions où les réglementations sont plus clémentes. Pour faire face à ce risque, il faut une collaboration à l'échelle mondiale.
Il est clair que l'IA a besoin d'un cadre de gouvernance internationale personnalisé s'inspirant des modèles développés dans des organisations telles que le GIEC pour évaluer l'ampleur et les impacts du changement climatique, l'AIEA pour renforcer la contribution de l'énergie atomique à la paix, à la santé et à la prospérité tout en veillant à ce qu'elle ne soit pas utilisée à des fins militaires, et le CERN pour faire progresser la recherche en physique fondamentale. Cette approche, qui réunit des fonctions politiques et techniques, servirait de pont entre les technologues et les décideurs politiques en équilibrant la promotion et le contrôle afin de combler les lacunes des mécanismes et des approches actuels. En outre, un tel cadre devrait promouvoir la coopération et le dialogue entre les parties prenantes et impliquer le public dans des discussions significatives et informées.
L'objectif final devrait être une réglementation mondiale contraignante, fondée sur des instruments de surveillance, de notification, de vérification et, le cas échéant, d'application, idéalement étayée par un traité. Toutefois, il convient de prendre dès à présent des mesures immédiates en vue de la mise en place de ce cadre. Ces actions intermédiaires peuvent être comparées à un "logiciel intermédiaire" en informatique, qui améliore l'interopérabilité entre divers appareils et systèmes. Cet "intergiciel" de gouvernance peut non seulement relier et aligner les efforts existants, mais aussi ouvrir la voie à des mesures plus contraignantes à l'avenir.
Les entités et les fournisseurs d'"intergiciels" pourraient être établis sous les auspices d'organisations existantes, nouvellement créées, ou une combinaison intégrant d'autres initiatives ayant fait la preuve de leur légitimité mondiale et de leur compétence technique. Les activités proposées ci-dessous ne doivent pas nécessairement être réalisées par une seule entité et les fonctions peuvent être réparties.
En cherchant à mettre en place une gouvernance mondiale de l'IA, nous sommes confrontés à deux risques pressants : l'échec potentiel d'efforts bien intentionnés mais trop ambitieux et des propositions qui limitent leur portée à des objectifs admirables. Les domaines et modalités proposés ci-dessous visent à surmonter les divergences politiques, la bureaucratie organisationnelle, les récits technologiques déterministes et les efforts visant à maintenir l'autorégulation de l'industrie. Il s'agit de propositions tangibles conçues pour aider à naviguer dans les complexités de la gouvernance technologique mondiale et à surmonter la fragmentation. Bien que le présent document n'entre pas dans les détails, il est évident que certains des domaines proposés pour un examen plus approfondi pourraient nécessiter des concessions en ce qui concerne la propriété intellectuelle émergente et existante. Il est admis que les impératifs de sécurité nationale joueront un rôle important dans la manière dont ces questions seront abordées. Par conséquent, il sera essentiel pour l'acceptation de toute proposition de mettre en évidence les avantages et les bénéfices collectifs d'une gouvernance technologique solide pour la stabilité internationale.
Il est important de noter que la liste n'est pas classée par ordre d'importance. Au contraire, chaque élément est présenté comme une approche potentielle et un domaine à explorer plus avant. Certains d'entre eux peuvent être immédiatement pertinents, d'autres non. Les activités suggérées pour les entités de gouvernance des intergiciels sont basées sur le cadre pour la gouvernance internationale de l'IA. Ce cadre est le fruit d'une collaboration entre l'initiative "Intelligence artificielle et égalité" (AIEI) à l'adresse Carnegie Council pour l'éthique dans les affaires internationales (CCEIA) et l'association de normalisation de l'Institut des ingénieurs électriciens et électroniciens (IEEE SA). Les modalités proposées ci-dessous sont structurées de manière à refléter les éléments qui conviennent à une approche intermédiaire plus fonctionnelle pour faciliter et accélérer la transition vers un accord international formel, à condition que les États s'accordent et conviennent d'une voie à suivre réalisable.
Centre d'impact de l'IA : Un centre mondial, développé en étroite collaboration avec les communautés techniques concernées sur la base des objectifs visés, pourrait surveiller les systèmes d'IA à fort impact, leurs utilisations et les cas d'avant-garde dans le monde entier. Un tel registre peut promouvoir la collaboration en documentant à la fois les données de formation et les résultats et impacts ultérieurs de ces systèmes.
Évaluation des niveaux d'acceptation : L'évaluation et la publication des cadres normatifs, des réglementations, des meilleures pratiques et des normes en matière de gouvernance de l'IA qui ont été les plus acceptés au niveau mondial et dont l'impact a été démontré peuvent favoriser leur adoption. Ceci est particulièrement pertinent lorsque l'on considère l'accès aux technologies et aux modèles d'IA générative, la transparence des données d'entraînement, les ressources informatiques, l'impact environnemental, les déclarations concernant la maturité des produits et l'utilisation des données communes.
Registre de lignage et de provenance des données : La saisie de l'historique de la dérivation d'un produit de données, à partir de ses sources d'origine, est essentielle pour établir une lignée de données fiable et maintenir des pratiques solides en matière de provenance des données. S'appuyer uniquement sur le filigrane en tant qu'initiative autonome est insuffisant, car il concerne principalement la propriété et le droit d'auteur. Pour garantir une traçabilité et une intégrité complètes des données, une approche globale combinant le filigrane et le suivi détaillé de la lignée est nécessaire.
Cadres interopérables de partage des données : Cadres de partage de données interopérables : Pour une surveillance mondiale efficace, il est primordial d'élaborer et d'adopter des normes et des cadres internationaux qui normalisent les pratiques de gouvernance des données dans toutes les régions. Cela devient particulièrement crucial si l'on considère l'énorme volume de données privées utilisées dans la création de technologies propriétaires. En établissant ces cadres harmonisés, nous pouvons promouvoir une meilleure interopérabilité et renforcer la confiance du public dans les initiatives mondiales de partage des données. Cet effort de collaboration exige des actions combinées de la part des gouvernements, des organisations et des acteurs de l'industrie afin de garantir que les échanges de données sont transparents, correctement divulgués et sécurisés pour toutes les parties concernées.
L'"équipe rouge" mondiale : L'établissement de listes d'experts indépendants et pluridisciplinaires, souvent appelées "équipes rouges",avec des mises à jour tous les deux ans pour traiter les conflits d'intérêts, et dont les participants sont tenus de déclarer toute implication dans les développements liés à l'IA. Ces équipes seraient chargées d'examiner les implications positives et négatives de l'IA dans différents secteurs, de développer des outils scientifiques et techniques pour évaluer la sécurité et l'impact des systèmes d'IA par l'analyse de la durée et de la chaîne de valeur, et d'anticiper les développements futurs.
Conseil d'alignement technologique : La mise en place d'un organe de consultation permanent qui se réunit tous les trimestres, composé d'entreprises technologiques mondiales pour partager des informations sur la gouvernance en temps réel, peut favoriser l'avancement cohésif et synergique des technologies d'IA interopérables et traçables. Cette méthode met l'accent sur le dialogue et la collaboration continus entre les géants de la technologie et les parties prenantes. Elle permet d'éviter une concentration excessive du pouvoir et de promouvoir la transparence, l'interopérabilité et la traçabilité dans la poursuite d'un développement responsable de l'IA.
Meilleures pratiques au niveau mondial : Des modèles de politiques et des systèmes de sauvegarde modèles pourraient être conçus pour reconnaître les caractéristiques d'utilisation universelle de la technologie de l'IA. Ces systèmes devraient viser à trouver un équilibre entre l'encouragement des applications bénéfiques de l'IA et la mise en place de contrôles rigoureux pour contrer les utilisations adverses et réduire les conséquences néfastes. L'adoption de cette stratégie pourrait offrir des conditions de concurrence plus équitables, en particulier pour les nations et les entités qui s'efforcent de suivre les progrès technologiques rapides et les environnements réglementaires changeants. Il est essentiel de parvenir à un accord sur l'équilibre entre l'encouragement des applications bénéfiques de l'IA et la mise en place de contrôles rigoureux pour contrer les utilisations malveillantes et réduire les conséquences néfastes si l'on veut réaliser des progrès significatifs en matière de gouvernance de l'IA (et d'autres technologies émergentes).
Rapport annuel : Un rapport annuel compilant et synthétisant les recherches sur les tendances, les investissements et les lancements de produits émergents dans le domaine de l'IA, et évaluant les cadres de gouvernance pertinents, pourrait changer la donne. Ce rapport couvrirait également les moteurs mondiaux, les menaces potentielles, les acteurs de la menace et les opportunités. En proposant des scénarios potentiels, en fournissant des recommandations exploitables aux gouvernements et aux organisations internationales, et en incluant un calendrier détaillé pour éviter les retards dans les actions de suivi, il renforcerait considérablement la prise de décision éclairée et élèverait le niveau du discours public.
Base de données mondiale sur les incidents : Une base de données mondiale, conçue pour le signalement anonyme et identifié d'incidents importants liés à l'IA et s'appuyant sur les efforts locaux existants, pourrait réduire les obstacles au signalement et renforcer les incitations à le faire. Cet outil prospectif devrait être géré par une entité intermédiaire ayant démontré ses capacités techniques à évaluer les réclamations. Il pourrait catalyser la collaboration transfrontalière et garantir une analyse cohérente des menaces. Cette base de données offrirait une plateforme sécurisée pour discuter et évaluer les menaces émergentes, améliorant ainsi la préparation mondiale et servant de mesure pour renforcer la confiance.
Culture technologique : L'entité ou les entités doivent collaborer avec les établissements d'enseignement et tirer parti des normes, du matériel et des plateformes librement accessibles sous licence Creative Commons pour promouvoir la maîtrise de l'IA. Cette démarche s'aligne sur l'initiative d'orientation de l'UNESCO. Ces initiatives soulignent l'importance d'investir dans l'éducation, en donnant aux individus les moyens de naviguer efficacement dans le paysage de l'IA et d'exploiter son potentiel pour l'amélioration personnelle et sociétale. Tous les programmes d'enseignement devraient être adaptés, et des incitations et des exigences devraient être introduites pour que les entreprises expliquent comment leur technologie fonctionne, comment les systèmes sont construits, par qui, en utilisant quelles ressources et dans quel but. De cette manière, les gens, en particulier les enfants, percevront organiquement ces systèmes comme des outils informatiques avancés mais imparfaits, et s'engageront avec eux en conséquence.
Passeports technologiques : Un système de "passeport technologique" pourrait rationaliser les évaluations dans les différentes juridictions, en permettant aux parties prenantes d'examiner les résultats d'une technologie tout au long de son parcours. Ce passeport serait un document évolutif dans lequel les systèmes d'IA accumuleraient des "tampons", signifiant que des experts ont vérifié l'adhésion du système à des critères prédéterminés. Les tampons seraient attribués à des moments clés de l'évolution du système et de sa chaîne de valeur, par exemple lorsqu'il intègre de nouvelles données, se connecte à d'autres systèmes, est mis hors service ou est utilisé à de nouvelles fins.
Référentiel de normes internationales : Établir un référentiel complet, éventuellement géré par une entité intermédiaire dans un environnement universitaire, qui centralise les références aux normes existantes en matière d'IA, élucide les disparités, évalue la nécessité de mises à jour à la lumière de l'évolution du paysage technologique, illustre les applications pratiques et s'attaque aux préoccupations éthiques et aux conflits d'intérêts. Ce référentiel renforcerait la transparence, guiderait la prise de décision et encouragerait la collaboration pour se prémunir contre les applications malencontreuses sur le plan éthique, tout en empêchant que des normes influencées par des conflits d'intérêts ne supplantent une gouvernance solide. Il permettrait aux parties intéressées de naviguer dans les ressources disponibles et de déterminer les meilleures approches pour les cas d'utilisation. Il est important de noter que ce référentiel serait librement accessible, même si certaines des normes référencées peuvent encore être la propriété des organismes de normalisation qui les ont émises.
Bacs à sable en libre accès : Créer des cadres pour des bacs à sable ou des bancs d'essai à source ouverte afin de permettre aux développeurs et aux agents de mise en œuvre de tester, valider et vérifier de manière éthique et transparente les capacités d'IA, qu'il s'agisse d'interactions homme-machine ou machine-machine, et d'assurer la supervision technique de ces capacités. Ces cadres pour les bacs à sable seront conçus en gardant à l'esprit les architectures de solutions ouvertes et reproductibles. Cette approche à code source ouvert offre non seulement un potentiel important pour les applications dans le domaine de l'IA, mais elle tient également compte de la convergence sans précédent des technologies que l'IA permet. En cas de succès, de nombreux composants proposés dans ces bacs à sable à source ouverte pourraient servir de modèles pour régir des domaines de découverte scientifique et d'innovation technologique qui n'ont pas encore été anticipés.
Outils technologiques : Le développement continu d'outils logiciels et matériels, y compris les méthodes cryptographiques et les protocoles de sécurité, constitue la base de la création de systèmes solides, sûrs et fiables pour se protéger contre les cybermenaces, la mauvaise manipulation des données, l'extraction de données sans scrupules et les vulnérabilités qui y sont liées. Ce développement peut également améliorer l'efficacité des processus, ce qui peut se traduire par des économies substantielles de temps et d'argent. En outre, pour cultiver une culture de la sécurité qui aille au-delà des approches techniques, il est important d'encourager le partage des connaissances et de l'expertise entre un large éventail de parties prenantes au niveau mondial. Cet effort de collaboration peut favoriser le perfectionnement continu d'outils gratuits, accessibles et adaptés à un paysage technologique en constante évolution.
Forums politiques collaboratifs : Une assemblée spécialisée, semblable aux conférences des États parties souvent associées aux traités internationaux, pourrait servir de forum pour parvenir à des accords concernant l'interdiction ou la restriction des technologies de l'IA et de leurs applications dans des situations qui présentent des risques indésirables avec des conséquences potentielles pour la stabilité et la sécurité internationales. De tels rassemblements pourraient renforcer la gouvernance des technologies et de l'IA, même en l'absence de traité formel. Cela s'avérerait particulièrement utile dans les scénarios où les modèles d'IA et leurs applications en aval peuvent entrer en conflit avec les cadres normatifs établis, les instruments de contrôle des armements, ainsi que les principes liés à la politique, à la société et aux droits de l'homme.
Portail de déclaration : L'établissement d'un "portail de déclaration", inspiré du régime de contrôle des armes et de non-prolifération, exigeant des États et des entreprises qu'ils divulguent leurs développements, approches et déploiements en matière d'IA, encouragerait la transparence et l'adhésion à des normes et standards convenus au niveau mondial, favoriserait la coopération technique internationale et l'échange de connaissances, et servirait de mesure de confiance.
Certification mondiale : Élaborer des programmes de certification mondiaux visant à intégrer dans les processus d'IA des principes éthiques universellement reconnus, y compris la prise en compte des points de tension et des compromis. Idéalement, ces programmes de certification devraient être menés en collaboration avec des organisations techniques professionnelles crédibles, en tirant parti de leur expertise avérée dans l'élaboration de tels programmes afin de garantir que le processus de certification va au-delà des concepts théoriques et fournit des solutions pratiques pour aborder les considérations éthiques qui sont clairement définies dans les instruments normatifs existants relatifs aux droits politiques, sociaux, environnementaux et de l'homme.
***
Un cadre mondial de gouvernance des technologies et de l'IA doit être à la fois souple et flexible. La promotion proactive du dialogue et des mesures de confiance peut rendre la mise en œuvre d'un cadre mondial plus fiable et faciliter des réponses rapides aux questions pertinentes. Ainsi, la gouvernance d'une technologie qui évolue rapidement nécessite une approche globale et fédérée, couvrant le parcours de chaque technologie depuis sa création jusqu'à son obsolescence.
Si la contribution des entreprises est précieuse pour façonner tout cadre technologique, le maintien d'une approche ouverte, communautaire et indépendante est essentiel pour la transparence. Tout cadre doit clairement définir la responsabilité, en précisant ce qui est développé, par qui, sous quelle direction, selon quelles normes et dans quel but. Ce faisant, il peut inciter les entreprises à mettre en avant leur engagement en faveur d'un déploiement transparent, sûr et responsable de l'IA et favoriser une collaboration plus large entre les parties prenantes.
De nombreuses questions restent en suspens concernant la navigation dans différents paysages réglementaires, l'atténuation des tensions géopolitiques et l'équilibre entre les différents intérêts des entreprises. Par exemple, comment les mécanismes proposés seront-ils mis en œuvre et contrôlés ? Comment pouvons-nous préserver l'autonomie politique, l'indépendance des entreprises, l'intégrité technique et la fiabilité des personnes, des institutions et des entités intermédiaires qui influencent le développement et l'utilisation de ces technologies ? En cas de désaccords politiques et techniques, qui les résoudra ? La Cour internationale de justice a-t-elle un rôle à jouer, par exemple, pour régler les différends juridiques conformément aux lois internationales et fournir des orientations sur les questions liées à l'IA ayant des implications transnationales ? Par ailleurs, est-il nécessaire d'établir un organe de règlement judiciaire distinct pour traiter les plaintes potentielles relatives à des utilisations nuisibles ayant des implications mondiales ?
Si nous parvenons à trouver des réponses à ces questions et à d'autres qui ne manqueront pas de se matérialiser à mesure que notre utilisation de ces technologies évoluera, un cadre mondialement accepté pour la gouvernance de l'IA pourrait servir de tremplin pour régir les futures avancées scientifiques et technologiques, au-delà de l'IA.
A propos de cette proposition
Cette proposition est le fruit d'une collaboration entre l'initiative "Intelligence artificielle et égalité" (AIEI) à l'adresse Carnegie Council pour l'éthique dans les affaires internationales (CCEIA) et l'association de normalisation de l'Institut des ingénieurs électriciens et électroniciens (IEEE SA). La proposition bénéficie de l'expertise et de l'expérience d'un grand nombre de personnes brillantes travaillant dans le domaine de l'intelligence artificielle et de la gouvernance.
Créée en 2020, l'AIEI est une communauté de pratique dynamique et axée sur les résultats qui se consacre à l'examen des impacts de l'IA sur l'égalité sociétale. Avec pour objectif de favoriser l'intégration et l'autonomisation éthiques dans les progrès de l'IA, elle défend le développement et le déploiement de technologies d'IA justes, inclusives et fermement ancrées dans des principes pragmatiques et responsables. Cette initiative dynamique rassemble un comité consultatif représentatif au niveau mondial, composé de membres issus de plus de 20 nations sur tous les continents. Ces conseillers sont des sommités dans leurs domaines respectifs, issus du monde universitaire, d'organismes gouvernementaux, d'institutions multinationales, d'ONG et du secteur des affaires, alliant perspectives technologiques et expertise géopolitique.
RESSOURCES SUPPLÉMENTAIRES :
AI Red Team/Hack the Future : Redéfinir les équipes d'intervention, juillet 2023
Déclaration de l'Association for Computer Machinery sur l'IA générative, septembre 2023
Travaux en cours du Conseil de l'Europe, juillet 2023
Credo.ai : L'état d'esprit des hackers : 4 leçons pour l'IA tirées de DEF CON 31, août 2023
Carnegie Council for Ethics in International Affairs est un organisme indépendant et non partisan à but non lucratif. Les opinions exprimées dans cet article sont celles de l'auteur et ne reflètent pas nécessairement la position de Carnegie Council.