L'IA dans la diplomatie

Grands modèles linguistiques (LLM) et diplomatie

Une action multilatérale solide repose sur la capacité des États à recevoir, traiter et produire de grandes quantités de textes écrits. Résolutions, mémorandums, communiqués, rapports des présidents, transcriptions et bien d'autres choses encore : le traitement et la production de corpus aussi vastes constituent une tâche considérable, que de nombreuses parties peuvent souvent trouver fastidieuse et répétitive. Il est donc logique qu'il y ait - si ce n'est déjà le cas - une forte impulsion parmi certaines parties pour utiliser de grands modèles de langage afin de soutenir leurs efforts dans ce domaine.

Quels seront les compromis éthiques de cette pratique ?

Télécharger le communiqué

Recommandations pour gérer les compromis

L'accélérateur d'éthique Carnegie a réuni des experts d'organisations diplomatiques, d'universités et de la société civile afin d'analyser plus en détail ces compromis et d'élaborer une série de propositions pour les gérer.

Comment les entités diplomatiques peuvent-elles résoudre les problèmes de transparence, d'inégalité et de perte de compétences qu'entraîne l'adoption de LLM ?

Lire le one-pager

Conventions de l'accélérateur d'éthique sur l'IA dans la diplomatie

Atelier 1

8 novembre 2023
Carnegie Council
New York, NY

Atelier 2

19 mars 2024
Carnegie Council
New York, NY

Prévision de scénarios à partir de l'utilisation de l'IA dans la diplomatie

Si les entités diplomatiques adoptent les LLM pour des tâches de traduction, de recherche et de prédiction, à quels types de résultats pouvons-nous nous attendre ? Quels sont les principaux facteurs technologiques, économiques, sociétaux, culturels (etc.) qui influencent l'efficacité de l'utilisation des LLM ?

Trois participants au Carnegie Ethics Accelerator évaluent les facteurs et la probabilité de six scénarios d'IA distincts.

Lire l'article