L'IA responsable et les compromis éthiques des grands modèles, avec Sara Hooker

31 juillet 2024 - 64 minutes d'écoute

Dans cet épisode du podcast Artificial Intelligence & Equality , Anja Kaspersen, Senior Fellow, s'entretient avec Sara Hooker, responsable de Cohere for AI, pour discuter de son travail de pionnière sur la conception de modèles, les biais de modèles et la représentation des données. Elle souligne l'importance de comprendre les compromis éthiques impliqués dans la construction et l'utilisation de grands modèles et aborde certaines des complexités et des responsabilités du développement moderne de l'IA.

Responsible AI & Ethical Trade-offs AIEI Spotify link Responsible AI & Ethical Trade-offs AIEI Apple Podcast link

ANJA KASPERSEN : Alors que l'intelligence artificielle (IA) continue de remodeler les récits et les paradigmes, j'ai le plaisir d'accueillir Sara Hooker. Sara est la fondatrice, vice-présidente de la recherche et directrice de Cohere for AI, un laboratoire de recherche qui se consacre à la résolution de problèmes complexes d'apprentissage automatique et à la conduite de recherches fondamentales qui explorent l'inconnu. Un lien vers l'impressionnante biographie de Sara, son important corpus de recherche et son podcast explorant les aspects connus et inconnus de l'apprentissage automatique est également disponible dans la transcription du podcast.

Bienvenue, Sara. C'est un plaisir d'avoir cette conversation avec vous.

SARA HOOKER : C'est un plaisir d'être ici.

ANJA KASPERSEN : Avant de nous plonger dans les complexités - comme vous le diriez, "connues et inconnues de l'apprentissage automatique et de l'IA" - et peut-être de démonter quelques idées fausses en cours de route, pourriez-vous nous dire ce qui vous a poussé à vous lancer dans ce domaine ? Quels sont les moments charnières ou les influences clés qui vous ont amené ici et aussi à adopter cette perspective très spécifique que je viens d'évoquer ?

SARA HOOKER : Ma carrière a toujours été motivée par la recherche de réponses à des questions intéressantes. Je suis informaticienne de formation, mais je dirais qu'une grande partie de Cohere pour l'IA est basée sur cette idée d'être à la frontière des idées.

En règle générale, il faut envisager les composants existants sous un angle différent, et Cohere for AI en est un bon exemple. Nous sommes un laboratoire hybride. Nous avons un grand laboratoire industriel qui est très typique de la façon dont les progrès sont réalisés de nos jours, en particulier la construction de grands modèles de langage (LLM) où nous avons beaucoup d'ordinateurs et de personnel à temps plein, mais nous avons également une composante hybride de site ouvert où nous collaborons beaucoup avec différents experts dans différents domaines. J'ai toujours été également intéressé par ce qui conduit à des percées et peut-être par les combinaisons de personnes et d'espaces qui conduisent à des idées intéressantes.

Au début de l'année, nous avons publié un modèle multilingue qui dessert 101 langues, et qui est presque entièrement le fruit de la collaboration de près de 3 000 chercheurs du monde entier. C'est très intéressant, car c'est ce que j'appellerais un très grand projet scientifique, pour lequel il faut un consensus parmi les chercheurs sur l'importance de la question.

Vous pouvez aussi aimer

24 JUILLET 2024 - Podcast

L'IA et la guerre : Une nouvelle ère pour la maîtrise des armements et la dissuasion, avec Paul Scharre

Anja Kaspersen, Senior Fellow, s'entretient avec Paul Scharre, du Center for a New American Security, sur les questions émergentes à l'intersection de la technologie et de la guerre.

2 JUIL. 2024 Podcast (en anglais)

Cybernétique, surveillance numérique et rôle des syndicats dans la gouvernance technologique, avec Elisabet Haugsbø

Anja Kaspersen, Senior Fellow, s’entretient avec Elisabet Haugsbø, présidente du syndicat technologique Tekna, sur son parcours d’ingénieure, sa résilience à l’ère de l’IA, et bien plus encore.

27 JUIN 2024 - Podcast

AI, Military Ethics, & Being Alchemists of Meaning, avec Heather M. Roff

Anja Kaspersen, Senior Fellow, et Heather Roff, senior research scientist au Center for Naval Analyses, discutent des systèmes d'IA, des affaires militaires et de bien d'autres sujets.