Initiative sur l'intelligence artificielle et l'égalité

L'IA peut-elle être déployée de manière à renforcer l'égalité ou les systèmes d'IA vont-ils exacerber les inégalités structurelles et en créer de nouvelles ?

L'Initiative pour l'intelligence artificielle et l'égalité (AIEI) est une communauté de pratique innovante axée sur l'impact, qui cherche à comprendre les innombrables façons dont l'IA influe sur l'égalité, pour le meilleur ou pour le pire. Nous travaillons à renforcer l'éthique de l'IA afin qu'elle soit déployée de manière juste, responsable et inclusive.

Voir le conseil d'administration de l'AIEI.

Pour toute question relative à l'AIEI, veuillez contacter Melissa Semeniuk, chef de cabinet de l'AIEI, à l'adresse Carnegie Council : [email protected]

L'initiative sur l'intelligence artificielle et l'égalité vise à :

Construire

Jeter les bases d'un dialogue inclusif - une Agora - pour examiner les questions liées aux avantages, aux risques, aux compromis et aux tensions que l'IA suscite.

Nourrir

Favoriser une communauté de pratique interdisciplinaire et intergénérationnelle afin de relever rapidement les défis urgents liés à l'utilisation de l'IA et d'autres nouvelles technologies.

Établir

Créer un forum pour ceux qui occupent des postes où ils doivent faire des choix réfléchis et prendre des décisions sur le développement et le déploiement d'applications d'IA.

Forge

Organiser des conversations et des enquêtes guidées transparentes, interdisciplinaires et inclusives.

Renforcer l'autonomie

Faire de l'éthique un outil permettant de prendre des décisions réfléchies sur l'intégration des systèmes et des applications d'IA dans le tissu de la vie quotidienne.

Contenu en vedette et analyse

23 FÉVRIER 2024 - Article

Qu'entend-on par "démocratisation de l'IA" ?

Alors que de nombreux partis appellent à la "démocratisation de l'IA", Elizabeth Seger, directrice du centre de recherche sur la politique numérique CASM chez Demos, examine les quatre significations de ce terme.

21 FÉVRIER 2024 - Podcast

Se préparer, ne pas paniquer : naviguer dans le paysage des droits numériques, avec Sam Gregory

Anja Kaspersen, Senior Fellow, s'entretient avec Sam Gregory, directeur exécutif de WITNESS, sur les défis et les opportunités présentés par les données synthétiques, les médias générés par l'IA et les "deepfakes".

L'équipe de l'AIEI

Wendell Wallach

Carnegie-Uehiro Fellow, Artificial Intelligence & Equality Initiative (AIEI) ; Centre interdisciplinaire de bioéthique de Yale

Anja Kaspersen

Carnegie Council Senior Fellow, Initiative pour l'intelligence artificielle et l'égalité (AIEI) ; IEEE

Quel est l'impact de l'IA sur l'égalité, pour le meilleur ou pour le pire ?

L'inégalité structurelle est le résultat d'un large éventail de facteurs politiques, économiques, sociaux et culturels. Les systèmes sociotechniques qui résultent de l'introduction d'innovations dans ce mélange sont de plus en plus déstabilisants. L'omniprésence et la rapidité avec lesquelles les systèmes basés sur l'IA pénètrent nos vies perturbent d'innombrables industries et institutions. Les monopoles croissants de données propriétaires ont donné et continuent de donner rapidement du pouvoir aux élites numériques et aux nouvelles alliances numériques. Pourtant, la compréhension de la manière dont les systèmes sociaux et techniques interagissent et de la manière de les gouverner au niveau mondial, régional ou local est loin d'être acquise. Pour compliquer les choses, certaines applications de l'IA peuvent en fait réduire les inégalités ou renforcer l'égalité de manière discrète. L'AIEI s'efforce de débroussailler ce terrain difficile et hautement transdisciplinaire afin de garantir que l'IA soit développée et déployée d'une manière juste, responsable et inclusive. Pour en savoir plus.

Pourquoi échouons-nous en matière d'éthique de l'IA ?

Ces dernières années ont vu une prolifération d'initiatives sur l'éthique et l'IA. Qu'elles soient formelles ou informelles, menées par des entreprises, des gouvernements et des organisations internationales et à but non lucratif, ces initiatives ont développé une pléthore de principes et d'orientations pour soutenir l'utilisation responsable des systèmes d'IA et des technologies algorithmiques. Malgré ces efforts, peu d'entre elles ont réussi à avoir un impact réel sur la modulation des effets de l'IA. Pour en savoir plus.

Derniers podcasts, événements et articles

2 JUIL. 2024 Podcast (en anglais)

Cybernétique, surveillance numérique et rôle des syndicats dans la gouvernance technologique, avec Elisabet Haugsbø

Anja Kaspersen, Senior Fellow, s’entretient avec Elisabet Haugsbø, présidente du syndicat technologique Tekna, sur son parcours d’ingénieure, sa résilience à l’ère de l’IA, et bien plus encore.

27 JUIN 2024 - Podcast

AI, Military Ethics, & Being Alchemists of Meaning, avec Heather M. Roff

Anja Kaspersen, Senior Fellow, et Heather Roff, senior research scientist au Center for Naval Analyses, discutent des systèmes d'IA, des affaires militaires et de bien d'autres sujets.

17 JUIN 2024 - Podcast

Linguistique, systèmes automatisés et puissance de l'IA, avec Emily M. Bender

Dans cet épisode, Kobi Leins, animateur invité, et Emily Bender, de l'université de Washington, expliquent pourquoi la langue joue un rôle important dans le développement des systèmes technologiques.

3 JUIN 2024 - Podcast

L'intersection de l'IA, de l'éthique et de l'humanité, avec Wendell Wallach

Dans cette vaste discussion, Samantha Hubner et Wendell Wallach, boursiers de Carnegie Council , expliquent comment la réflexion sur l'histoire de l'éthique des machines peut contribuer au développement responsable de l'IA.