"Gouvernance de l'IA" : Les deux points de vue d'un Noir de la génération Z sur The Conversation

30 juin 2021

La position émergente est que les gouvernements sont au sommet du régime de gouvernance en ce qui concerne l'IA. C'est ce qu'indiquent des initiatives telles que la loi sur l'intelligence artificielle récemment annoncée et proposée par la Commission européenne (CE). Toutefois, un cadre véritablement durable à l'ère numérique nécessite une approche multipartite des questions de gouvernance et de politique en matière d'IA. Il est essentiel que les plus vulnérables puissent s'exprimer dans le cadre d'un tel processus. Il est également essentiel d'aligner les intérêts des "grandes entreprises technologiques" sur les intérêts humains, notamment en veillant à ce que l'IA ne porte pas atteinte aux droits de l'homme. Il en résulterait une société meilleure, fondée sur la confiance et réceptive à l'innovation, qui favoriserait le bien-être des entreprises technologiques et de la société qu'elles servent. Voici trois recommandations sur la manière de faire avancer les choses.

Tout d'abord, pour aligner les intérêts des entreprises technologiques sur les souhaits d'une société juste et équitable, nous devons utiliser le principe fondamental de l'offre et de la demande. Nous en aurions eu un exemple au lendemain du meurtre de George Floyd, lorsque la "culture de l'annulation" du 21e siècle a fait déferler des demandes de valorisation des droits de l'homme des personnes noires et brunes et la menace de sanctions économiques sévères si ces demandes n'étaient pas satisfaites. Les grandes entreprises ont pris conscience du risque qu'il y avait à ne pas réagir aux questions de justice sociale et aux politiques publiques inefficaces. Cette concordance entre la prise de conscience de la privation des libertés et le coût économique de l'injustice s'est traduite par une augmentation rapide de l'attention portée par les entreprises à la gouvernance sous l'angle de la responsabilité, de l'autorité réactive et de l'inclusivité. Il est encore tôt, mais on a le sentiment que ces changements seront une pièce maîtresse permanente de la stratégie des entreprises ainsi que de l'activisme social futur. Il est donc impératif que les gens soient capables de reconnaître comment leurs droits humains, comme celui de la vie privée, par exemple, sont plus que jamais menacés dans l'espace numérique et qu'ils réagissent avec un niveau d'indignation similaire à celui qu'ils auraient face à des violations de la vie privée telles que les "voyeurs" et le harcèlement criminel dans le monde physique.

Deuxièmement, les utilisateurs de la technologie numérique doivent assumer la responsabilité de la manière dont leurs propres préjugés alimentent les inégalités dont ils se plaignent. Nos préjugés se reflètent dans nos recherches, les termes que nous utilisons et les clics que nous effectuons. Ces choix entraînent les algorithmes à percevoir ce que nous apprécions et à perpétuer nos préjugés d'une manière qui va à l'encontre de nos propres intérêts dans l'utilisation quotidienne de la technologie.

Troisièmement, et dans le prolongement des deux autres points, il est impératif que la culture numérique soit une priorité dans le système éducatif formel et fasse partie de l'apprentissage tout au long de la vie. Les gens doivent être capables de profiter des avantages des technologies basées sur l'IA tout en étant capables de détecter et de lutter contre les préjudices tels que les biais et les manipulations algorithmiques. La culture numérique doit également être considérée comme un pilier de la gouvernance inclusive de l'IA. Dans le cas contraire, la participation de personnes non informées et vulnérables à la table de gouvernance ne serait que symbolique et n'aurait pas plus de valeur que si ces personnes n'étaient pas du tout impliquées dans la gouvernance.

Pia-Milan Green est chargée de recherche pour l'initiative "Intelligence artificielle et égalité" du site Carnegie Council.

Vous pouvez aussi aimer

30 AVRIL 2024 - Podcast

L'IA est-elle un simple artefact ? avec Joanna Bryson

Dans cet épisode, l'animatrice Anja Kaspersen est rejointe par Joanna Bryson de l'école Hertie pour discuter de l'intersection des sciences informatiques, cognitives et comportementales et de l'IA.

Couverture du livre A Dangerous Master. CREDIT : Sentient Publications.

18 AVRIL 2024 - Article

Un maître dangereux : Bienvenue dans le monde des technologies émergentes

Dans cette préface à l'édition de poche de son livre "A Dangerous Master", Wendell Wallach aborde les percées et les questions éthiques liées à l'IA et aux technologies émergentes.

22 MARS 2024 - Podcast

Deux questions fondamentales dans la gouvernance de l'IA, avec Elizabeth Seger

Dans ce podcast intitulé "Artificial Intelligence & Equality", Wendell Wallach, membre de Carnegie-Uehiro, et Elizabeth Seger, de Demos, discutent de la manière de rendre l'IA générative sûre et démocratique.