Alors que les gouvernements du monde entier se préparent à déployer l'IA à grande échelle, le deuxième sommet sur l'IA responsable dans le domaine militaire (REAIM) s'est tenu les 9 et 10 septembre à Séoul pour discuter de l'avenir des efforts de gouvernance. Le sommet REAIM est un dialogue multipartite unique qui rassemble des représentants des gouvernements, de l'industrie, des universités et des organisations de la société civile. C'est également l'un des rares endroits où des représentants des gouvernements chinois et américain, ainsi que des délégués de plus de 90 pays, se rencontrent pour discuter de la gouvernance mondiale de l'IA militaire. Mais l'intensification de la concurrence géopolitique, ainsi que les notions contestées de ce qui constitue une "IA responsable", posent des défis immédiats à l'élaboration et à l'adoption de cadres normatifs, juridiques et politiques communs.
Un plan d'action ?
Le sommet REAIM 2024 a débouché sur un "plan d'action", un document non contraignant qui s'appuie sur l'"appel à l'action" lancé lors du sommet de l'année dernière à La Haye. Le plan d'action énonce une série de principes concernant l'impact de l'IA sur la paix et la sécurité internationales, la mise en œuvre d'une IA responsable dans le domaine militaire et l'avenir de la gouvernance de l'IA. Reconnaissant que le débat sur l'IA militaire a dépassé le cadre des systèmes d'armes autonomes létaux, le plan d'action affirme que les principes s'appliquent à toutes les "applications de l'IA dans le domaine militaire", y compris celles utilisées dans la logistique, les opérations de renseignement et la prise de décision.
Le plan d'action invite les décideurs politiques à accorder une attention particulière aux armes dotées d'IA, aux systèmes d'aide à la décision fondés sur l'IA et à l'utilisation de l'IA dans les cyberopérations, la guerre électronique, les opérations d'information et le domaine nucléaire. Bien qu'il soit encore fortement axé sur le niveau tactique, le plan d'action reconnaît que l'IA peut nuire à la paix et à la sécurité internationales en compliquant les dynamiques d'escalade et en abaissant le seuil de recours à la force. Enfin, le plan d'action invite les parties prenantes à s'engager à nouveau en faveur de l'échange de connaissances, du renforcement des capacités et d'une compréhension commune des risques et des possibilités associés à l'IA militaire.
Le plan d'action a été approuvé par 61 pays, dont la France, le Japon, le Pakistan, la Corée du Sud, la Suède, la Suisse, l'Ukraine, le Royaume-Uni et les États-Unis. La Chine n'en fait pas partie, bien qu'elle ait approuvé l'appel à l'action l'année dernière. Pékin n'a pas non plus approuvé la "Déclaration politique sur l'utilisation militaire responsable de l'intelligence artificielle et de l'autonomie", dirigée par les États-Unis, qui propose des paramètres pour le développement, le déploiement et l'utilisation de l'IA militaire. La Russie non plus. Et Israël, un allié clé des États-Unis qui déploie déjà des technologies basées sur l'IA sur le champ de bataille à Gaza, n'a approuvé aucune de ces initiatives.
L'absence de consensus international sur le plan d'action est décevante, voire surprenante. Les principes contenus dans le document reflètent le plus petit dénominateur commun d'accord entre les parties prenantes sur ce qui constitue une utilisation "responsable" de l'IA militaire, comme l'affirmation selon laquelle "les applications de l'IA devraient être éthiques et centrées sur l'homme", où l'homme reste responsable du développement et de l'utilisation de l'IA et doit en rendre compte. De même, le document affirme sans équivoque que les technologies basées sur l'IA doivent faire l'objet d'un examen juridique et être utilisées conformément à toutes les lois internationales applicables, à savoir le droit international humanitaire (DIH) et le droit international des droits de l'homme (DIDH). Pourtant, une trentaine de représentants gouvernementaux présents à la conférence REAIM n'ont pas approuvé ces déclarations.
L'incapacité des États à se mettre d'accord sur des principes aussi fondamentaux suggère que le cadre de l'"IA responsable" reste contesté au niveau mondial, les pays démocratiques adoptant une approche plus axée sur les valeurs que les régimes autoritaires pour atténuer les dommages potentiels de l'IA pour les individus et la société. Cette absence de consensus ne doit toutefois pas être interprétée comme un manque de préoccupation. Lors de l'une des séances en petits groupes du sommet REAIM 2024, des représentants chinois ont exprimé en privé leur inquiétude quant à l'utilisation de l'IA par Israël à Gaza, soulignant ainsi un sentiment d'urgence partagé selon lequel l'incapacité des cadres de gouvernance de l'IA à suivre le rythme de la technologie se traduit déjà par des dommages dans le monde réel.
La REAIM n'est bien sûr qu'un des forums où se déroulent les discussions sur la gouvernance de l'IA militaire. Le sommet des Nations unies sur l'avenir, qui se tiendra à New York un peu plus d'une semaine après le sommet de la REAIM, offrira une nouvelle occasion de relever ces défis et de favoriser un consensus mondial.
Passer des principes à la pratique
Même si le plan d'action n'est pas révolutionnaire, certains signes montrent que nous avançons dans la bonne direction. Un consensus s'est dégagé à REAIM sur le fait que les débats politiques ont trop longtemps tourné autour des systèmes d'armes autonomes létaux (LAWS) par opposition aux applications plus larges de l'IA, tout en se concentrant étroitement sur les questions tactiques au détriment des considérations stratégiques. En outre, les participants ont convenu que ces débats se sont tenus à un niveau trop général et abstrait, empêchant ainsi une gouvernance efficace.
Mais les choses changent progressivement. Plusieurs sessions du REAIM ont souligné la nécessité de s'éloigner du débat sur les LAWS, de se concentrer sur la sécurité stratégique et d'adopter des tests et des analyses rigoureuses de l'utilisation de l'IA dans des études de cas concrets. Un large consensus s'est dégagé sur la nécessité d'être plus rigoureux dans les questions de recherche et plus précis dans l'identification des lacunes en matière de connaissances. Comme l'a dit James Black, de RAND Europe, "nous en sommes encore à la phase de recherche des problèmes, et non à celle de leur résolution".
Comment pouvons-nous passer à la phase de résolution des problèmes ? Tel était le thème du panel REAIM "Responsible Military Use of AI : Bridging the Gap Between Principles and Practice", organisé conjointement par Carnegie Council for Ethics in International Affairs et l'Oxford Institute for Ethics, Law and Armed Conflict (ELAC). Réunissant d'éminents éthiciens, juristes internationaux et stratèges militaires, j'ai demandé aux panélistes comment les décideurs peuvent traduire plus efficacement les principes de gouvernance de l'IA en actions mondiales concrètes. Cette table ronde a marqué le début d'une série d'ateliers visant à répondre à cette question urgente.
Le professeur Kenneth Payne, du King's College de Londres, a résumé le sentiment qui régnait dans la salle : "Les discussions sur les normes peuvent facilement porter sur les fruits les plus faciles à cueillir, comme la prise en compte des préoccupations et la nécessité d'une plus grande confiance, mais il est difficile d'aller plus loin. À une époque de concurrence géopolitique accrue, l'IA présente des risques importants au niveau stratégique, notamment en rendant les dynamiques d'escalade des conflits plus opaques et imprévisibles. La "grammaire" de la guerre, pour reprendre les termes de Clausewitz, est incertaine", a déclaré M. Payne.
Dans ce contexte d'incertitude, le fait d'être le premier à définir les règles du jeu offre des avantages stratégiques et normatifs indéniables. Paul Lyons, directeur principal pour la défense au Special Competitive Studies Project et ancien capitaine de la marine américaine, a souligné que "si la gouvernance est importante, si la vitesse responsable est importante, il ne faut pas oublier qu'il y a une course à l'innovation, et que le premier arrivé attribuera ces valeurs". Selon M. Lyons, l'IA responsable nécessite une expérimentation rapide, au cours de laquelle les opérateurs testent différents modèles de gouvernance dans un environnement contrôlé.
Alors que les États s'empressent de développer et de déployer de nouvelles technologies, la transparence jouera un rôle essentiel pour garantir une utilisation responsable de l'IA. "La mise en œuvre des principes de l'IA responsable peut être source d'efficience, d'efficacité et de légitimité", souligne Tess Bridgeman, co-rédactrice en chef de la revue Just Security et ancienne conseillère juridique adjointe du Conseil national de sécurité des États-Unis. "La transparence favorise la confiance dans les systèmes d'IA que nous produisons et exploitons, et cette confiance peut à son tour favoriser une adoption plus rapide de ces capacités. Lyons est d'accord, observant que "la confiance est inhérente à ce que nous sommes, à ce que nous faisons, aux visions que nous suivons et aux valeurs qui nous servent, lorsque nous prescrivons la manière dont l'IA devrait être utilisée".
Plusieurs mesures peuvent être prises aujourd'hui par les États pour améliorer la transparence en matière d'IA militaire. Tout d'abord, ils pourraient publier leurs stratégies nationales, leurs documents d'orientation, leurs cadres et leur législation concernant le développement et l'utilisation de l'IA dans le domaine militaire. Il est essentiel de caviarder et de déclassifier les politiques et les procédures relatives à l'utilisation de l'IA dans le contexte de la sécurité nationale, y compris dans la prise de décision concernant l'utilisation de la force et les opérations de renseignement qui soutiennent les fonctions de combat. Deuxièmement, les États pourraient créer des recueils des connaissances existantes sur l'IA militaire. Ces recueils pourraient utilement inclure des études de cas sur l'utilisation responsable des technologies basées sur l'IA dans les conflits conventionnels et non conventionnels. Enfin, les États devraient élaborer des interprétations collectives de la manière dont le droit international s'applique à des cas spécifiques d'utilisation de l'IA, d'une manière qui soit accessible au débat public, tout en partageant les meilleures pratiques en matière d'examen juridique.
Outre la transparence, le transfert de connaissances et le renforcement des capacités seront essentiels pour rendre la gouvernance de l'IA militaire plus solide. Alors que les débats politiques se sont largement concentrés sur la réglementation, les enseignements tirés de la guerre des drones suggèrent que les instruments non contraignants - y compris les orientations politiques, les règles d'engagement et les codes de conduite - peuvent être plus efficaces dans la pratique pour garantir la mise en place de garde-fous éthiques. En bref, la gouvernance de l'IA militaire pourrait se situer davantage au niveau de la politique que de la loi, la formation étant un élément fondamental de la mise en œuvre.
Avant tout, une gouvernance efficace de l'IA exige une volonté politique. Le professeur Toni Erskine, de l'Australian National University, a souligné la nécessité de développer des "responsabilités morales supplémentaires de modération", c'est-à-dire des responsabilités visant à créer les conditions dans lesquelles nous pouvons nous acquitter des devoirs de modération qui sont déjà largement approuvés dans les relations internationales par la Charte des Nations unies et le droit humanitaire international. "Nous sommes confrontés à la double tâche d'établir un consensus sur de nouvelles applications de normes internationales existantes durement acquises, et de générer un accord sur de nouveaux principes qui contribueraient à l'émergence de nouvelles normes. Compte tenu des risques encourus par l'humanité, M. Erskine conclut qu'une "coalition des obligés", plutôt que des volontaires, s'impose aujourd'hui. Pour mener à bien cette tâche, il faudra renforcer la transparence et les mesures de confiance, en s'inspirant des leçons tirées des domaines cybernétique et nucléaire.
Tout, tout de suite
La REAIM a mis en évidence deux impératifs pour la gouvernance de l'IA militaire : la recherche d'un plus grand consensus international sur ce que devraient être les principes et l'adoption de mesures concrètes pour mettre en œuvre ces principes. Mais qu'est-ce qui doit primer ? Comment les décideurs politiques doivent-ils hiérarchiser les risques liés à l'IA ? Et existe-t-il des "gains rapides", étant donné que le rythme des avancées technologiques a déjà dépassé les cadres de gouvernance de l'IA naissants ?
"Giacomo Persi Paoli, responsable du programme sur la sécurité et la technologie à l'Institut des Nations unies pour la recherche sur le désarmement . "En allant trop vite, trop tôt, il y a un risque très élevé que de nombreux pays ne veuillent pas s'engager. Les experts mesurent les progrès en matière de gouvernance en années, et non en mois. Pendant ce temps, les entreprises technologiques avancent rapidement. "Juste devant les portes [de REAIM] où ce délai est considéré comme inévitable, des entreprises vendent activement les systèmes qui nécessitent une réglementation, a déclaré Alexi Drew, conseiller en politique technologique au Comité international de la Croix-Rouge.
Les décideurs politiques peuvent, dans une certaine mesure, trier et hiérarchiser les risques liés à l'IA. Ils peuvent commencer par se concentrer sur les problèmes à fort impact, tels que le potentiel de l'IA à déstabiliser la dissuasion stratégique et à conduire à une guerre nucléaire. Une autre approche consiste à s'attaquer aux risques qui se sont déjà manifestés, comme l'utilisation de systèmes d'aide à la décision de l'IA pour le ciblage. Les cadres de gouvernance pourraient également donner la priorité à la réglementation des outils d'IA qui sont très déstabilisants et pourraient facilement tomber entre les mains de terroristes.
Cette liste de priorités met en évidence la nécessité de traiter simultanément les menaces à court terme et les menaces existentielles. Par conséquent, comme l'a suggéré M. Payne lors du panel REAIM, les discussions sur la gouvernance militaire de l'IA et les risques existentiels pourraient bientôt converger. En matière de gouvernance de l'IA, les décideurs politiques doivent tout faire, en même temps.
Il n'y a pas de solution miracle. L'élaboration et la promotion de politiques nationales pour la gouvernance de l'IA, ainsi que l'obligation de procéder à des examens juridiques réguliers des systèmes basés sur l'IA dans les contextes militaires, sont des fruits relativement faciles à atteindre. Les mesures de transparence évoquées lors de la table ronde Carnegie Council-ELAC à la REAIM sont d'autres mesures que les décideurs politiques peuvent prendre immédiatement, en l'absence d'une législation ou d'un consensus international. Bien que ce ne soit pas nécessairement une victoire rapide ou facile, les diplomates américains sont et devraient continuer à faire adhérer davantage de pays à la déclaration politique, en particulier les alliés qui pourraient être parmi les pires abuseurs de cette technologie. Dans le même temps, les gouvernements doivent mettre en place une "coalition des obligés" pour relever les énormes défis qui nous attendent.
Aucune de ces mesures ne sera possible sans une plus grande collaboration entre les experts techniques et politiques des gouvernements, de l'industrie, des universités et de la société civile. Des partenariats public-privé plus solides sont essentiels. Le projet REAIM constitue un modèle important de partenariat réunissant un groupe d'experts diversifié et interdisciplinaire pour s'attaquer à ce type de problèmes complexes.
Dans le cadre de ce dialogue, il est essentiel d'aborder des changements plus profonds dans la manière dont l'IA remodèle les dimensions éthiques et stratégiques de la guerre. Contrairement aux armes conventionnelles, l'IA modifie non seulement la manière dont nous utilisons la force, mais aussi la manière dont nous concevons l'utilisation de la force. Le caractère de la guerre n'est pas la seule chose qui change ; les perceptions humaines de la guerre changent également. Pour relever les défis actuels, la gouvernance de l'IA doit être ancrée dans les environnements sociaux, institutionnels et humains plus larges dans lesquels les technologies sont déployées.
Brianna Rosen (@rosen_br) est chargée de mission à Just Security et chercheuse en stratégie et politique à la Blavatnik School of Government de l'Université d'Oxford. Auparavant, elle a travaillé pendant dix ans au sein du gouvernement américain, notamment au Conseil de sécurité nationale de la Maison-Blanche et au Bureau du vice-président.
Carnegie Council for Ethics in International Affairs est un organisme indépendant et non partisan à but non lucratif. Les opinions exprimées dans cet article sont celles de l'auteur et ne reflètent pas nécessairement la position de Carnegie Council.