L'IA peut-elle être déployée de manière à renforcer l'égalité ou les systèmes d'IA vont-ils exacerber les inégalités structurelles et en créer de nouvelles ?
L'Initiative pour l'intelligence artificielle et l'égalité (AIEI) est une communauté de pratique innovante axée sur l'impact, qui cherche à comprendre les innombrables façons dont l'IA influe sur l'égalité, pour le meilleur ou pour le pire. Nous travaillons à renforcer l'éthique de l'IA afin qu'elle soit déployée de manière juste, responsable et inclusive.
Voir le conseil d'administration de l'AIEI.
Pour toute question relative à l'AIEI, veuillez contacter Melissa Semeniuk, chef de cabinet de l'AIEI, à l'adresse Carnegie Council : [email protected]
L'initiative sur l'intelligence artificielle et l'égalité vise à :
Construire
Jeter les bases d'un dialogue inclusif - une Agora - pour examiner les questions liées aux avantages, aux risques, aux compromis et aux tensions que l'IA suscite.
Nourrir
Favoriser une communauté de pratique interdisciplinaire et intergénérationnelle afin de relever rapidement les défis urgents liés à l'utilisation de l'IA et d'autres nouvelles technologies.
Établir
Créer un forum pour ceux qui occupent des postes où ils doivent faire des choix réfléchis et prendre des décisions sur le développement et le déploiement d'applications d'IA.
Forge
Organiser des conversations et des enquêtes guidées transparentes, interdisciplinaires et inclusives.
Renforcer l'autonomie
Faire de l'éthique un outil permettant de prendre des décisions réfléchies sur l'intégration des systèmes et des applications d'IA dans le tissu de la vie quotidienne.
Contenu en vedette et analyse
5 JUIN 2023 - Article
Sommes-nous en train d'automatiser la banalité et la radicalité du mal ?
Les itérations actuelles de l'IA sont de plus en plus capables d'encourager la soumission à un maître non humain, en disant des contrevérités potentiellement systématiques avec une confiance emphatique.
6 SEP 2023 - Podcast
Pouvons-nous coder l'énergie de manière responsable ? avec Carl Miller
Dans cet épisode qui suscite la réflexion, Carl Miller aborde des questions pressantes : Peut-on coder le pouvoir de manière responsable ? Et surtout, comment définir le "pouvoir" dans ce contexte ?
L'équipe de l'AIEI
Wendell Wallach
Carnegie-Uehiro Fellow, Artificial Intelligence & Equality Initiative (AIEI) ; Centre interdisciplinaire de bioéthique de Yale
Anja Kaspersen
Carnegie Council Senior Fellow, Initiative pour l'intelligence artificielle et l'égalité (AIEI) ; IEEE
Quel est l'impact de l'IA sur l'égalité, pour le meilleur ou pour le pire ?
L'inégalité structurelle est le résultat d'un large éventail de facteurs politiques, économiques, sociaux et culturels. Les systèmes sociotechniques qui résultent de l'introduction d'innovations dans ce mélange sont de plus en plus déstabilisants. L'omniprésence et la rapidité avec lesquelles les systèmes basés sur l'IA pénètrent nos vies perturbent d'innombrables industries et institutions. Les monopoles croissants de données propriétaires ont donné et continuent de donner rapidement du pouvoir aux élites numériques et aux nouvelles alliances numériques. Pourtant, la compréhension de la manière dont les systèmes sociaux et techniques interagissent et de la manière de les gouverner au niveau mondial, régional ou local est loin d'être acquise. Pour compliquer les choses, certaines applications de l'IA peuvent en fait réduire les inégalités ou renforcer l'égalité de manière discrète. L'AIEI s'efforce de débroussailler ce terrain difficile et hautement transdisciplinaire afin de garantir que l'IA soit développée et déployée d'une manière juste, responsable et inclusive. Pour en savoir plus.
Pourquoi échouons-nous en matière d'éthique de l'IA ?
Ces dernières années ont vu une prolifération d'initiatives sur l'éthique et l'IA. Qu'elles soient formelles ou informelles, menées par des entreprises, des gouvernements et des organisations internationales et à but non lucratif, ces initiatives ont développé une pléthore de principes et d'orientations pour soutenir l'utilisation responsable des systèmes d'IA et des technologies algorithmiques. Malgré ces efforts, peu d'entre elles ont réussi à avoir un impact réel sur la modulation des effets de l'IA. Pour en savoir plus.
Derniers podcasts, événements et articles

7 JUILLET 2023 - Article
Mise en place d'un cadre international pour la gouvernance de l'IA
Wendell Wallach et Anja Kaspersen, Senior Fellows, plaident en faveur d'un cadre solide pour la gouvernance internationale de l'IA.

6 JUILLET 2023 - Article
Arguments en faveur d'un observatoire mondial de l'IA (GAIO), 2023
L'argumentaire en faveur d'un "Observatoire mondial de l'IA" (GAIO), qui relève six domaines d'activité principaux pour une réglementation plus sérieuse de l'IA.

5 JUILLET 2023 - Article
Un cadre pour la gouvernance internationale de l'IA
Carnegie Councilen collaboration avec l'IEEE, propose un cadre de gouvernance de l'IA en cinq parties pour permettre une utilisation constructive de l'IA.

5 JUIN 2023 - Article
Sommes-nous en train d'automatiser la banalité et la radicalité du mal ?
Les itérations actuelles de l'IA sont de plus en plus capables d'encourager la soumission à un maître non humain, en disant des contrevérités potentiellement systématiques avec une confiance emphatique.