Grands modèles linguistiques (LLM) et diplomatie
Une action multilatérale solide repose sur la capacité des États à recevoir, traiter et produire de grandes quantités de textes écrits. Résolutions, mémorandums, communiqués, rapports des présidents, transcriptions et bien d'autres choses encore : le traitement et la production de corpus aussi vastes constituent une tâche considérable, que de nombreuses parties peuvent souvent trouver fastidieuse et répétitive. Il est donc logique qu'il y ait - si ce n'est déjà le cas - une forte impulsion parmi certaines parties pour utiliser de grands modèles de langage afin de soutenir leurs efforts dans ce domaine.
Quels seront les compromis éthiques de cette pratique ?
Recommandations pour gérer les compromis
L'accélérateur d'éthique Carnegie a réuni des experts d'organisations diplomatiques, d'universités et de la société civile afin d'analyser plus en détail ces compromis et d'élaborer une série de propositions pour les gérer.
Comment les entités diplomatiques peuvent-elles résoudre les problèmes de transparence, d'inégalité et de perte de compétences qu'entraîne l'adoption de LLM ?
Pour en savoir plus sur l'éthique des technologies émergentes et de l'IA, abonnez-vous à la Carnegie Ethics Newsletter.
Conventions de l'accélérateur d'éthique sur l'IA dans la diplomatie
Atelier 1
8 novembre 2023
Carnegie Council
New York, NY
Atelier 2
19 mars 2024
Carnegie Council
New York, NY
Prévision de scénarios à partir de l'utilisation de l'IA dans la diplomatie
Si les entités diplomatiques adoptent les LLM pour des tâches de traduction, de recherche et de prédiction, à quels types de résultats pouvons-nous nous attendre ? Quels sont les principaux facteurs technologiques, économiques, sociétaux, culturels (etc.) qui influencent l'efficacité de l'utilisation des LLM ?
Trois participants au Carnegie Ethics Accelerator évaluent les facteurs et la probabilité de six scénarios d'IA distincts.