Initiative sur l'intelligence artificielle et l'égalité

L'IA peut-elle être déployée de manière à renforcer l'égalité ou les systèmes d'IA vont-ils exacerber les inégalités structurelles et en créer de nouvelles ?

L'Initiative pour l'intelligence artificielle et l'égalité (AIEI) est une communauté de pratique innovante axée sur l'impact, qui cherche à comprendre les innombrables façons dont l'IA influe sur l'égalité, pour le meilleur ou pour le pire. Nous travaillons à renforcer l'éthique de l'IA afin qu'elle soit déployée de manière juste, responsable et inclusive.

Voir le conseil d'administration de l'AIEI.

Pour toute question relative à l'AIEI, veuillez contacter Melissa Semeniuk, chef de cabinet de l'AIEI, à l'adresse Carnegie Council : [email protected]

L'initiative sur l'intelligence artificielle et l'égalité vise à :

Construire

Jeter les bases d'un dialogue inclusif - une Agora - pour examiner les questions liées aux avantages, aux risques, aux compromis et aux tensions que l'IA suscite.

Nourrir

Favoriser une communauté de pratique interdisciplinaire et intergénérationnelle afin de relever rapidement les défis urgents liés à l'utilisation de l'IA et d'autres nouvelles technologies.

Establish

Créer un forum pour ceux qui occupent des postes où ils doivent faire des choix réfléchis et prendre des décisions sur le développement et le déploiement d'applications d'IA.

Forge

Organiser des conversations et des enquêtes guidées transparentes, interdisciplinaires et inclusives.

Renforcer l'autonomie

Faire de l'éthique un outil permettant de prendre des décisions réfléchies sur l'intégration des systèmes et des applications d'IA dans le tissu de la vie quotidienne.

Contenu en vedette et analyse

23 FÉVRIER 2024 - Article

Qu'entend-on par "démocratisation de l'IA" ?

Alors que de nombreux partis appellent à la "démocratisation de l'IA", Elizabeth Seger, directrice du centre de recherche sur la politique numérique CASM chez Demos, examine les quatre significations de ce terme.

21 FÉVRIER 2024 - Podcast

Se préparer, ne pas paniquer : naviguer dans le paysage des droits numériques, avec Sam Gregory

Anja Kaspersen, Senior Fellow, s'entretient avec Sam Gregory, directeur exécutif de WITNESS, sur les défis et les opportunités présentés par les données synthétiques, les médias générés par l'IA et les "deepfakes".

L'équipe de l'AIEI

Wendell Wallach

Carnegie-Uehiro Fellow, Artificial Intelligence & Equality Initiative (AIEI) ; Centre interdisciplinaire de bioéthique de Yale

Anja Kaspersen

Carnegie Council Senior Fellow, Initiative pour l'intelligence artificielle et l'égalité (AIEI) ; IEEE

Quel est l'impact de l'IA sur l'égalité, pour le meilleur ou pour le pire ?

L'inégalité structurelle est le résultat d'un large éventail de facteurs politiques, économiques, sociaux et culturels. Les systèmes sociotechniques qui résultent de l'introduction d'innovations dans ce mélange sont de plus en plus déstabilisants. L'omniprésence et la rapidité avec lesquelles les systèmes basés sur l'IA pénètrent nos vies perturbent d'innombrables industries et institutions. Les monopoles croissants de données propriétaires ont donné et continuent de donner rapidement du pouvoir aux élites numériques et aux nouvelles alliances numériques. Pourtant, la compréhension de la manière dont les systèmes sociaux et techniques interagissent et de la manière de les gouverner au niveau mondial, régional ou local est loin d'être acquise. Pour compliquer les choses, certaines applications de l'IA peuvent en fait réduire les inégalités ou renforcer l'égalité de manière discrète. L'AIEI s'efforce de débroussailler ce terrain difficile et hautement transdisciplinaire afin de garantir que l'IA soit développée et déployée d'une manière juste, responsable et inclusive. Pour en savoir plus.

Pourquoi échouons-nous en matière d'éthique de l'IA ?

Ces dernières années ont vu une prolifération d'initiatives sur l'éthique et l'IA. Qu'elles soient formelles ou informelles, menées par des entreprises, des gouvernements et des organisations internationales et à but non lucratif, ces initiatives ont développé une pléthore de principes et d'orientations pour soutenir l'utilisation responsable des systèmes d'IA et des technologies algorithmiques. Malgré ces efforts, peu d'entre elles ont réussi à avoir un impact réel sur la modulation des effets de l'IA. Pour en savoir plus.

Derniers podcasts, événements et articles

27 JAN, 2022 - Article

Si la confiance est indispensable, les régulateurs de l'IA doivent faire trois choses concrètes

"En matière d'intelligence artificielle, la confiance est une nécessité et non un atout", a déclaré Margrethe Vestager, responsable de la Commission européenne pour les questions numériques, lors du lancement de la ...

20 JAN, 2022 - Article

Cartographie de l'IA et de l'égalité, première partie : naviguer entre les promesses et les dangers de l'innovation technologique

En cartographiant l'IA et l'égalité, il est utile de développer de grandes catégories qui mettent en évidence des trajectoires distinctes montrant comment l'IA a un impact sur les personnes et leurs relations avec ...

19 JAN, 2022 - Podcast

AI, Movable Type, & Federated Learning, avec Blaise Aguera y Arcas

Dans notre empressement à gouverner l'IA, sommes-nous en train d'utiliser les mauvaises métaphores et les mauvais récits ? Dans ce podcast "Artificial Intelligence & Equality", Carnegie Council Senior Fellow ...

5 JAN, 2022 - Podcast

"Ce n'était pas mon intention" : Revoir l'éthique à l'ère de l'information, avec Shannon Vallor

Dans cet épisode du podcast "Artificial Intelligence & Equality", Wendell Wallach, Senior Fellow, s'entretient avec le professeur Shannon Vallor sur la manière de repenser l'éthique ...