Quand la machine de guerre décide : Algorithmes, secrets et responsabilité dans les conflits modernes, avec Brianna Rosen

26 mars 2024 - 31 minutes d'écoute

Dans cette discussion approfondie avec le Senior Fellow Arthur Holland Michel, Brianna Rosen, Senior Fellow à Just Security et à l'Université d'Oxford, discute de ce que nous savons (et de ce que nous ne savons pas) sur l'utilisation de l'IA par Israël dans la guerre à Gaza et explique la relation délicate entre les décisions algorithmiques, la transparence et la responsabilité. Elle se penche également sur les deux dernières décennies du programme américain de frappes de drones pour trouver des indices sur ce que l'avenir de la guerre par IA pourrait signifier pour la justice et les droits de l'homme.

When the War Machine Decides Spotify podcast link When the War Machine Decides Apple podcast link

ARTHUR HOLLAND MICHEL : Bonjour. Je m'appelle Arthur Holland Michel et je suis chercheur principal à Carnegie Council pour l'éthique dans les affaires internationales. Cet épisode du podcast Carnegie Council vous est présenté en collaboration avec l'Institut de recherche sur la paix d'Oslo dans le cadre de son projet RegulAIR. RegulAIR est une initiative de recherche pluriannuelle sur l'intégration des drones et d'autres technologies émergentes dans la vie quotidienne.

Je suis très heureux d'être rejoint aujourd'hui par Brianna Rosen. Brianna est chercheuse en stratégie et politique à l'Université d'Oxford et chercheuse principale à Just Securityoù elle écrit sur l'intelligence artificielle (IA), les drones et la responsabilité militaire.

Bonjour, Brianna. C'est un plaisir de vous recevoir.

BRIANNA ROSEN : Bonjour, Arthur. Merci beaucoup de m'avoir invitée à participer à ce podcast. C'est un plaisir d'être ici avec vous aujourd'hui, car j'admire depuis longtemps votre propre travail sur ce sujet. Je suis sûre que nous allons avoir une conversation passionnante.

ARTHUR HOLLAND MICHEL : Pouvez-vous vous présenter brièvement à nos auditeurs ? Parlez-nous un peu de votre parcours professionnel et de la manière dont vous vous êtes intéressé à ces sujets.

BRIANNA ROSEN : Absolument. Je travaille sur la technologie et la guerre depuis 15 ans, d'abord dans le monde des groupes de réflexion, puis au Conseil de sécurité nationale de la Maison Blanche pendant l'administration Obama, et maintenant à l'Université d'Oxford et à Just Security.

L'un de mes principaux domaines d'intérêt a été le programme américain de drones et les politiques, principes et lois qui devraient le régir. Mes recherches sur l'IA militaire en découlent organiquement, et je dois dire que j'aborde cette question d'un point de vue normatif, mais aussi en tant que personne qui a passé de nombreuses années dans le monde de la politique et qui est pleinement consciente des pressions et des compromis auxquels les décideurs politiques sont confrontés.

ARTHUR HOLLAND MICHEL : Je voudrais aborder votre travail sur les drones plus tard, car il est très riche et fascinant, mais je voudrais commencer un peu plus près du présent et parler de l'IA. Ces derniers mois, vous avez notamment évoqué dans vos écrits un cas très intéressant d'utilisation de l'IA dans la guerre de Gaza. Pour les auditeurs qui ne sont peut-être pas au courant de la technologie déployée dans ce conflit et de son utilisation, pouvez-vous nous donner un aperçu de ce qui se passe, tel que nous le comprenons ?

Carnegie Council for Ethics in International Affairs est un organisme indépendant et non partisan à but non lucratif. Les opinions exprimées dans ce podcast sont celles des intervenants et ne reflètent pas nécessairement la position de Carnegie Council.

Vous pouvez aussi aimer

12 SEP 2024 - Article

Des principes à l'action : Tracer la voie de la gouvernance de l'IA militaire

Alors que l'IA redéfinit les dimensions éthiques de la guerre, les parties prenantes doivent travailler ensemble à une plus grande transparence et à des efforts de gouvernance pour cette technologie émergente, écrit Brianna Rosen.

9 AVRIL 2024 - Vidéo

Algorithmes de guerre : l'utilisation de l'IA dans les conflits armés

De Gaza à l'Ukraine, les applications militaires de l'IA modifient fondamentalement l'éthique de la guerre. Comment les décideurs politiques doivent-ils gérer les compromis inhérents à l'IA ?

De gauche à droite : Eleonore Fournier-Tombs, Ambassadeur Chola Milambo, Ambassadeur Anna Karin Eneström, Doreen Bogdan-Martin, Vilas Dhar. CREDIT : Bryan Goldberg.

19 SEP 2024 - Vidéo

Débloquer la coopération : L'IA pour tous

À la veille du Sommet du Futur, Carnegie Council et UNU-CPR ont organisé un événement spécial sur les implications de l'IA pour le système multilatéral ...