Deux questions fondamentales dans la gouvernance de l'IA, avec Elizabeth Seger

22 mars 2024 - 56 minutes d'écoute

Qu'est-ce qui est le plus dangereux, l'IA en libre accès ou les grands modèles de langage et autres formes d'IA générative totalement contrôlés par un oligopole d'entreprises ? Le libre accès à la construction de modèles d'IA générative rendra-t-il l'IA plus démocratique ? Quelles sont les autres approches disponibles pour garantir que l'IA générative est sûre et démocratique ?

Wendell Wallach, membre de Carnegie-Uehiro, et Elizabeth Seger, directrice du centre de recherche sur la politique numérique CASM chez Demos, discutent de ces questions et de bien d'autres dans ce podcast sur l'intelligence artificielle et l'égalité.

Pour en savoir plus, lisez son récent article sur la démocratisation de l'IA.

Two Core Issues in AI Governance Spotify podcast link Two Core AI Governance Issues AIEI Apple podcast link

WENDELL WALLACH : Bonjour. Je suis Wendell Wallach. Mon invitée pour ce podcast est Elizabeth Seger, directrice de l'équipe chargée de la politique numérique chez Demos, un groupe de réflexion politique multipartite situé à Londres. Elle est également chercheuse affiliée au projet AI : Futures and Responsibility à l'université de Cambridge. Ce qui me fascine chez Elizabeth, c'est qu'elle est devenue un leader d'opinion sur deux des questions les plus critiques de la gouvernance de l'intelligence artificielle (IA), des questions qui aideront à déterminer si l'IA peut renforcer l'égalité ou exacerber les inégalités structurelles. La première de ces questions est de savoir si les grands modèles d'IA, en particulier l'IA générative, sont potentiellement trop dangereux pour être l'équivalent en IA d'un logiciel libre.

Bienvenue, Elizabeth.

ELIZABETH SEGER : Merci de m'accueillir.

WENDELL WALLACH :C'est un plaisir de vous recevoir. Veuillez nous expliquer pourquoi la question de savoir si l'IA, les grands modèles de langage (LLM) et d'autres cadres devraient être contrôlés par de grandes entreprises ou être en libre accès est si controversée.

ELIZABETH SEGER : Le débat sur les sources ouvertes concernant les grands modèles linguistiques et l'IA hautement performante a pris une telle ampleur et est devenu si controversé parce qu'il s'agit d'une énorme question de contrôle. Il s'agit d'une question de contrôle aux enjeux considérables.

D'une part, le fait de ne pas ouvrir un modèle ou de permettre aux grandes entreprises d'en avoir le contrôle exclusif place le contrôle de ces modèles entre les mains d'un très petit nombre de grandes entreprises technologiques, ce qui pourrait empêcher d'autres acteurs de participer à ce qui promet d'être une industrie de l'IA très lucrative et bénéfique sur le plan financier.

D'autre part, l'ouverture des systèmes à la concurrence pourrait mettre le contrôle de ces systèmes entre les mains de personnes mal intentionnées, et l'on s'inquiète beaucoup de l'ampleur des dommages qui pourraient être causés en mettant des systèmes d'IA très performants entre les mains d'acteurs malveillants.

Nous avons donc un problème de contrôle massif des deux côtés et des enjeux importants si nous nous trompons de question.

WENDELL WALLACH : Je vous ai entendu dire que vous pensiez que la distinction entre l'open source et le contrôle par les entreprises était une fausse dichotomie. Veuillez préciser.

Carnegie Council for Ethics in International Affairs est un organisme indépendant et non partisan à but non lucratif. Les opinions exprimées dans ce podcast sont celles des intervenants et ne reflètent pas nécessairement la position de Carnegie Council.

Vous pouvez aussi aimer

31 JUILLET 2024 - Podcast

L'IA responsable et les compromis éthiques des grands modèles, avec Sara Hooker

Dans cet épisode, Anja Kaspersen, Senior Fellow, s'entretient avec Sara Hooker, de Cohere for AI, pour discuter de la conception des modèles, des biais des modèles et de la représentation des données.

24 JUILLET 2024 - Podcast

L'IA et la guerre : Une nouvelle ère pour la maîtrise des armements et la dissuasion, avec Paul Scharre

Anja Kaspersen, Senior Fellow, s'entretient avec Paul Scharre, du Center for a New American Security, sur les questions émergentes à l'intersection de la technologie et de la guerre.

2 JUIL. 2024 Podcast (en anglais)

Cybernétique, surveillance numérique et rôle des syndicats dans la gouvernance technologique, avec Elisabet Haugsbø

Anja Kaspersen, Senior Fellow, s’entretient avec Elisabet Haugsbø, présidente du syndicat technologique Tekna, sur son parcours d’ingénieure, sa résilience à l’ère de l’IA, et bien plus encore.