Les grands modèles linguistiques n'ont pas besoin d'une pause dans la recherche, ils ont besoin d'un rappel immédiat du produit.

26 avril 2023

Hilary Sutcliffe aborde la gouvernance de l'IA sous un autre angle... .

J'ai l'impression de m'être échappé d'une secte après avoir regardé la présentation convaincante de Tristan Harris et Aza Raskinintitulée "The AI Dilemma"(Le dilemme de l'IA). Cette vidéo, réalisée lors d'une réunion privée de technologues à San Francisco, explique en termes faciles à comprendre pourquoi les grands modèles de langage (LLM) tels que ChatGPT et Bard sont si dangereux pour les individus et la société.

Harris et Raskin sont les fondateurs du Center for Humane Technology, et sont également présentés dans The Social Dilemma sur Netflix, un documentaire sur les dangers des médias sociaux. Dans "The AI Dilemma", ils montrent que les problèmes posés par les grands modèles de langage ne se limitent pas aux questions éthiques évidentes, comme les chatbots à la sexualité glaçante déjà intégrés dans Snapchat, ou les compétences de génie en chimie de recherche que le logiciel a développées de lui-même et qui peuvent indiquer à n'importe qui comment fabriquer du gaz neurotoxique en quelques étapes simples. Harris et Raskin démontrent de manière convaincante que ces problèmes et bien d'autres ne feront que proliférer parce que le logiciel s'enseigne lui-même et que ses concepteurs ne savent pas comment il le fait, comment l'arrêter, quels pourraient être les préjudices sociétaux ou comment les prévenir.

Il est évident que nous n'avons pas besoin de la "pause de six mois dans la recherche" proposée par les développeurs technologiques. Nous avons besoin d'un rappel immédiat des produits, jusqu'à ce que les entreprises et leurs concepteurs puissent prouver à la société et aux régulateurs qu'ils peuvent créer des logiciels sûrs et dotés de garde-fous pour éviter des dommages massifs aux individus et à la société.

J'ai l'impression de m'être libéré d'une secte parce que je regarde la technologie d'une manière différente maintenant et je ne peux pas comprendre comment j'ai pu me laisser séduire par le battage médiatique et comment les gouvernements n'ont pas déjà fait cela. Ce n'est pas comme si quelques personnes avaient "bu le Kool-Aid" et succombé à l'histoire de l'inévitabilité de l'IA et de son importance essentielle pour la société. Mais d'une manière ou d'une autre, nous avons tous bu de l'eau additionnée de Kool-Aid et nous nous sommes collectivement laissés prendre par le récit de la spécificité et de l'inévitabilité qui nous a été colporté par la communauté de l'IA dans la Silicon Valley.

J'utilise le terme de rappel de produits plutôt que moratoire, interdiction ou pause dans la recherche parce qu'il s'agit, en termes simples, d'un produit défectueux qui n'aurait jamais dû être mis sur le marché et qui doit être retiré instantanément avant que d'autres dommages ne soient causés. Il ne s'agit même pas d'un rappel de produits aussi coûteux et complexe que celui de Toyota, par exemple, qui a coûté 3,2 milliards de dollars pour le rappel mondial de 8,1 millions de voitures parce que la pédale d'accélérateur s'était coincée dans les tapis de sol, ou que celui de Volkswagen, qui a rappelé 11 millions de voitures pour avoir triché sur ses normes d'émission et qui, avec les frais de justice, devrait lui coûter 18 milliards de dollars. Il s'agit simplement d'amener trois entreprises à effectuer la tâche simple et peu coûteuse de retirer des logiciels qui ne leur rapportent rien pour le moment, afin de faire ce qu'elles auraient dû faire en premier lieu : s'assurer qu'ils sont sûrs pour les individus et la société avant de les mettre sur le marché.

Les entreprises qui commercialisent ce logiciel d'IA ne sont pas aussi spéciales qu'elles aiment à le croire. Elles se contentent d'essayer, comme tant d'autres entreprises, de gagner le plus d'argent possible, de tuer ou de suivre leurs concurrents, sans vraiment se préoccuper de ce qu'il advient des individus et de la société au cours de ce processus. Ce qu'il faut pour les détourner de cette mauvaise habitude, c'est une approche "pro-société" de l'innovation et de la réglementation - un système qui a la capacité de comprendre et de prévenir les impacts négatifs plus larges sur la société, ainsi que les dommages causés aux individus et à l'économie

Ainsi, après le rappel, lorsque les produits sont retirés du marché, un accord devrait être conclu, peut-être par une coalition mondiale de groupes de la société civile et de citoyens, d'universitaires, de politiciens, d'institutions multilatérales, de régulateurs et d'entreprises technologiques, sur ce qui est acceptable, sur les compromis à faire pour le bien de la société et sur la manière dont cela pourrait être réalisé techniquement et juridiquement avant que les produits ne soient autorisés à revenir sur le marché.

Un bon point de départ pourrait être de ressusciter l'excellent congrès international sur la gouvernance de l'IA organisé(virtuellement en 2021) par Wendell Wallach, coprésident de l'initiative "IA et égalité" de Carnegie Council, qui incluait cette coalition mondiale et devait se réunir à Prague juste au moment où la pandémie de COVID-19 a frappé. Comptez sur moi !

J'ai besoin d'un hashtag pour cela : Pourquoi pas #LLMrecallnow ?

Hilary Sutcliffe est membre du conseil consultatif de l'AIEI et animatrice de l'émission "From Another Angle" ( Carnegie Council). D'un autre point de vue de .

Carnegie Council for Ethics in International Affairs est un organisme indépendant et non partisan à but non lucratif. Les opinions exprimées dans cet article sont celles de l'auteur et ne reflètent pas nécessairement la position de Carnegie Council.

Vous pouvez aussi aimer

2 JUIL. 2024 Podcast (en anglais)

Cybernétique, surveillance numérique et rôle des syndicats dans la gouvernance technologique, avec Elisabet Haugsbø

Anja Kaspersen, Senior Fellow, s’entretient avec Elisabet Haugsbø, présidente du syndicat technologique Tekna, sur son parcours d’ingénieure, sa résilience à l’ère de l’IA, et bien plus encore.

27 JUIN 2024 - Podcast

AI, Military Ethics, & Being Alchemists of Meaning, avec Heather M. Roff

Anja Kaspersen, Senior Fellow, et Heather Roff, senior research scientist au Center for Naval Analyses, discutent des systèmes d'IA, des affaires militaires et de bien d'autres sujets.

3 JUIN 2024 - Podcast

L'intersection de l'IA, de l'éthique et de l'humanité, avec Wendell Wallach

Dans cette vaste discussion, Samantha Hubner et Wendell Wallach, boursiers de Carnegie Council , expliquent comment la réflexion sur l'histoire de l'éthique des machines peut contribuer au développement responsable de l'IA.