Vecteur bleu

CREDIT : rawpixel.

24 mai 2023 - Article

La Silicon Valley viole sciemment les principes éthiques de l'IA. La société ne peut pas réagir si nous laissons les désaccords empoisonner le débat.

Cet article a été publié à l'origine sur Fortune.com.

Alors que la critique du ChatGPT fait couler beaucoup d'encre, nous entendons de plus en plus souvent parler de désaccords entre les penseurs qui sont critiques à l'égard de l'IA. Si le débat sur une question aussi importante est naturel et attendu, nous ne pouvons pas laisser les divergences paralyser notre capacité à progresser sur l'éthique de l'IA en cette période charnière. Aujourd'hui, je crains que ceux qui devraient être des alliés naturels au sein des communautés technologiques, commerciales, politiques et universitaires ne soient au contraire de plus en plus à couteaux tirés. Lorsque le domaine de l'éthique de l'IA semble divisé, il devient plus facile pour les intérêts en place d'écarter complètement les considérations éthiques.

Ces désaccords doivent être compris dans le contexte de la manière dont nous avons atteint le moment actuel d'excitation autour des progrès rapides des grands modèles de langage et d'autres formes d'IA générative

OpenAI, l'entreprise à l'origine de ChatGPT, a été initialement créée en tant qu'organisation à but non lucratif, avec beaucoup de bruit autour d'une mission visant à résoudre le problème de la sécurité de l'IA. Cependant, lorsqu'il est devenu évident que le travail d'OpenAI sur les grands modèles de langage était lucratif, OpenAI a pivoté pour devenir une société publique. Elle a déployé ChatGPT et s'est associée à Microsoft, qui a toujours cherché à se présenter comme l'entreprise technologique la plus soucieuse d'éthique.

Les deux entreprises savaient que ChatGPT violait, par exemple, les principes éthiques de l'UNESCO en matière d'IA, approuvés au niveau mondial. L'OpenAI a même refusé de rendre publique une version antérieure de GPT, invoquant l'inquiétude suscitée par les mêmes risques d'utilisation abusive que ceux dont nous sommes aujourd'hui témoins. Mais pour l'OpenAI et Microsoft, la tentation de gagner la course à l'entreprise l'a emporté sur les considérations éthiques. Cela a nourri un certain cynisme quant au fait de compter sur l'autonomie des entreprises ou même des gouvernements pour mettre en place les garde-fous nécessaires.

Nous ne devons pas nous montrer trop cyniques à l'égard des dirigeants de ces deux entreprises, qui sont coincés entre leur responsabilité fiduciaire envers les actionnaires et un véritable désir de bien faire. Ils restent des personnes bien intentionnées, comme tous ceux qui s'inquiètent de la trajectoire de l'IA

Un tweet récent du sénateur américain Chris Murphy (D-CT) et la réponse de la communauté de l'IA illustrent peut-être le mieux cette tension. En parlant de ChatGPT, Murphy a tweeté : "Quelque chose se prépare. Nous ne sommes pas prêts." C'est à ce moment-là que les chercheurs et les éthiciens de l'IA ont réagi. Ils ont reproché au sénateur de ne pas comprendre la technologie, de se laisser aller à un battage futuriste et d'attirer l'attention sur les mauvaises questions. Mme Murphy a répondu à l'un des critiques : "Je pense que l'effet de ses commentaires est très clair : essayer d'empêcher les gens comme moi d'engager la conversation, parce qu'elle est plus intelligente et que les gens comme elle sont plus intelligents que le reste d'entre nous".

Je suis attristé par de tels conflits. Les préoccupations soulevées par M. Murphy sont valables et nous avons besoin de dirigeants politiques engagés dans l'élaboration de garanties juridiques. Toutefois, son détracteur n'a pas tort de se demander si nous concentrons notre attention sur les bonnes questions.

Pour nous aider à comprendre les différentes priorités des diverses critiques et, espérons-le, à dépasser ces divisions potentiellement préjudiciables, je voudrais proposer une taxonomie pour la pléthore de préoccupations éthiques soulevées par le développement de l'IA :

Le premier panier a trait à la justice sociale, à l'équité et aux droits de l'homme. Par exemple, il est désormais bien connu que les algorithmes peuvent exacerber les préjugés raciaux, sexistes et autres lorsqu'ils sont formés à partir de données qui incarnent ces préjugés.

Le deuxième panier est existentiel : Certains membres de la communauté des développeurs d'IA craignent de créer une technologie qui pourrait menacer l'existence humaine. Un sondage réalisé en 2022 auprès d'experts en IA a révélé que la moitié d'entre eux s'attend à ce que l'IA devienne exponentiellement plus intelligente que l'homme d'ici 2059, et les progrès récents ont incité certains à revoir leurs estimations à la hausse.

Le troisième panier concerne les préoccupations relatives à l'attribution de rôles décisionnels aux modèles d'IA. Deux technologies ont été au cœur de cette discussion : les véhicules autopilotés et les systèmes d'armes autonomes létaux. Toutefois, des préoccupations similaires se font jour à mesure que les modules logiciels d'IA sont de plus en plus intégrés dans les systèmes de contrôle de toutes les facettes de la vie humaine.

L'utilisation abusive de l'IA, comme la désinformation à des fins politiques et économiques, et l'inquiétude vieille de deux siècles concernant le chômage technologique sont des questions transversales à tous ces domaines. Si, dans l'histoire du progrès économique, les machines ont principalement remplacé le travail physique, les applications de l'IA peuvent remplacer le travail intellectuel.

Je suis sensible à toutes ces préoccupations, même si j'ai eu tendance à me montrer amicalement sceptique à l'égard des inquiétudes les plus futuristes du deuxième panier. Comme dans l'exemple ci-dessus du tweet du sénateur Murphy, les désaccords entre les détracteurs de l'IA ont souvent pour origine la crainte que les arguments existentiels ne détournent l'attention des questions urgentes de justice sociale et de contrôle.

À l'avenir, les individus devront juger par eux-mêmes qui, selon eux, s'investit véritablement pour répondre aux préoccupations éthiques de l'IA. Toutefois, nous ne pouvons pas permettre qu'un scepticisme et un débat sains se transforment en une chasse aux sorcières parmi des alliés et des partenaires potentiels.

Les membres de la communauté de l'IA doivent se rappeler que ce qui nous rassemble est plus important que les différences d'orientation qui nous distinguent les uns des autres.

Ce moment est bien trop important.

Wendell Wallach est Carnegie-Uehiro Fellow à Carnegie Council for Ethics in International Affairs, où il codirige l'initiative "Intelligence artificielle et égalité" (AIEI). Il est président émérite du groupe d'étude sur la technologie et l'éthique au centre interdisciplinaire de bioéthique de l'université de Yale.

Carnegie Council for Ethics in International Affairs est un organisme indépendant et non partisan à but non lucratif. Les opinions exprimées dans cet article sont celles de l'auteur et ne reflètent pas nécessairement la position de Carnegie Council.

Vous pouvez aussi aimer

24 JUILLET 2024 - Podcast

L'IA et la guerre : Une nouvelle ère pour la maîtrise des armements et la dissuasion, avec Paul Scharre

Anja Kaspersen, Senior Fellow, s'entretient avec Paul Scharre, du Center for a New American Security, sur les questions émergentes à l'intersection de la technologie et de la guerre.

2 JUIL. 2024 Podcast (en anglais)

Cybernétique, surveillance numérique et rôle des syndicats dans la gouvernance technologique, avec Elisabet Haugsbø

Anja Kaspersen, Senior Fellow, s’entretient avec Elisabet Haugsbø, présidente du syndicat technologique Tekna, sur son parcours d’ingénieure, sa résilience à l’ère de l’IA, et bien plus encore.

NOV 17, 2021 - Podcast

L'IA et la guerre : Sommes-nous dans un nouveau "Horse & Tank Moment" ? avec Kenneth Payne

Les systèmes d'IA transformeront-ils le futur champ de bataille de manière si spectaculaire qu'ils rendront obsolètes les paradigmes et doctrines existants, alimentant ainsi de nouveaux dilemmes de sécurité intenses ? Dans ce "...