Initiative sur l'intelligence artificielle et l'égalité

L'IA peut-elle être déployée de manière à renforcer l'égalité ou les systèmes d'IA vont-ils exacerber les inégalités structurelles et en créer de nouvelles ?

L'Initiative pour l'intelligence artificielle et l'égalité (AIEI) est une communauté de pratique innovante axée sur l'impact, qui cherche à comprendre les innombrables façons dont l'IA influe sur l'égalité, pour le meilleur ou pour le pire. Nous travaillons à renforcer l'éthique de l'IA afin qu'elle soit déployée de manière juste, responsable et inclusive.

Voir le conseil d'administration de l'AIEI.

Pour toute question relative à l'AIEI, veuillez contacter Melissa Semeniuk, chef de cabinet de l'AIEI, à l'adresse Carnegie Council : [email protected]

L'initiative sur l'intelligence artificielle et l'égalité vise à :

Construire

Jeter les bases d'un dialogue inclusif - une Agora - pour examiner les questions liées aux avantages, aux risques, aux compromis et aux tensions que l'IA suscite.

Nourrir

Favoriser une communauté de pratique interdisciplinaire et intergénérationnelle afin de relever rapidement les défis urgents liés à l'utilisation de l'IA et d'autres nouvelles technologies.

Établir

Créer un forum pour ceux qui occupent des postes où ils doivent faire des choix réfléchis et prendre des décisions sur le développement et le déploiement d'applications d'IA.

Forge

Organiser des conversations et des enquêtes guidées transparentes, interdisciplinaires et inclusives.

Renforcer l'autonomie

Faire de l'éthique un outil permettant de prendre des décisions réfléchies sur l'intégration des systèmes et des applications d'IA dans le tissu de la vie quotidienne.

Contenu en vedette et analyse

5 JUIN 2023 - Article

Sommes-nous en train d'automatiser la banalité et la radicalité du mal ?

Les itérations actuelles de l'IA sont de plus en plus capables d'encourager la soumission à un maître non humain, en disant des contrevérités potentiellement systématiques avec une confiance emphatique.

6 SEP 2023 - Podcast

Pouvons-nous coder l'énergie de manière responsable ? avec Carl Miller

Dans cet épisode qui suscite la réflexion, Carl Miller aborde des questions pressantes : Peut-on coder le pouvoir de manière responsable ? Et surtout, comment définir le "pouvoir" dans ce contexte ?

L'équipe de l'AIEI

Wendell Wallach

Carnegie-Uehiro Fellow, Artificial Intelligence & Equality Initiative (AIEI) ; Centre interdisciplinaire de bioéthique de Yale

Anja Kaspersen

Carnegie Council Senior Fellow, Initiative pour l'intelligence artificielle et l'égalité (AIEI) ; IEEE

Quel est l'impact de l'IA sur l'égalité, pour le meilleur ou pour le pire ?

L'inégalité structurelle est le résultat d'un large éventail de facteurs politiques, économiques, sociaux et culturels. Les systèmes sociotechniques qui résultent de l'introduction d'innovations dans ce mélange sont de plus en plus déstabilisants. L'omniprésence et la rapidité avec lesquelles les systèmes basés sur l'IA pénètrent nos vies perturbent d'innombrables industries et institutions. Les monopoles croissants de données propriétaires ont donné et continuent de donner rapidement du pouvoir aux élites numériques et aux nouvelles alliances numériques. Pourtant, la compréhension de la manière dont les systèmes sociaux et techniques interagissent et de la manière de les gouverner au niveau mondial, régional ou local est loin d'être acquise. Pour compliquer les choses, certaines applications de l'IA peuvent en fait réduire les inégalités ou renforcer l'égalité de manière discrète. L'AIEI s'efforce de débroussailler ce terrain difficile et hautement transdisciplinaire afin de garantir que l'IA soit développée et déployée d'une manière juste, responsable et inclusive. Pour en savoir plus.

Pourquoi échouons-nous en matière d'éthique de l'IA ?

Ces dernières années ont vu une prolifération d'initiatives sur l'éthique et l'IA. Qu'elles soient formelles ou informelles, menées par des entreprises, des gouvernements et des organisations internationales et à but non lucratif, ces initiatives ont développé une pléthore de principes et d'orientations pour soutenir l'utilisation responsable des systèmes d'IA et des technologies algorithmiques. Malgré ces efforts, peu d'entre elles ont réussi à avoir un impact réel sur la modulation des effets de l'IA. Pour en savoir plus.

Derniers podcasts, événements et articles

21 FÉVRIER 2023 - Article

Les droits de l'homme doivent être au cœur de la gouvernance de l'IA et des technologies

S'appuyant sur un article récent d'Anja Kaspersen et de Wendell Wallach, Kate Jones, de Chatham House, écrit que les droits de l'homme doivent être au cœur d'une ...

7 FÉVRIER 2023 - Podcast

Gouvernance technologique et rôle du multilatéralisme, avec Amandeep Singh Gill

Dans ce podcast de l'AIEI, Wendell Wallach et Anja Kaspersen sont rejoints par l'ambassadeur Amandeep Singh Gill, envoyé du secrétaire général de l'ONU, M. Guterres, pour la technologie. Ils discutent de quelques ...

Concept abstrait de technologie big data en arrière-plan.

24 JAN 2023 - Article

Le moment est venu de procéder à une réinitialisation systémique de la gouvernance de l'IA et des technologies

Comment faire en sorte que les technologies actuellement développées soient utilisées pour le bien commun, plutôt que pour le bénéfice de quelques privilégiés ? ...

4 JAN 2023 - Podcast

Neuroéthique : Une éthique de la technologie, avec le Dr. Joseph Fins

Dans ce podcast de grande envergure intitulé "Artificial Intelligence & Equality", le Dr Joseph Fins de Weill Cornell discute avec Wendell Wallach, Senior Fellow, du battage médiatique et des réalités entourant les neurosciences contemporaines ...