Si la confiance est indispensable, les régulateurs de l'IA doivent faire trois choses concrètes

27 janvier 2022

"En matière d'intelligence artificielle, la confiance est un impératif, pas un atout", a déclaré Margrethe Vestager, responsable des questions numériques à la Commission européenne, lors du lancement des règles de l'Union européenne sur l'intelligence artificielle (IA), attendues de longue date. Elle a raison. Les nouvelles règles et actions proposées par l'UE seront essentielles pour gagner la confiance des citoyens en veillant à ce que l'égalité, l'éthique et les droits de l'homme soient respectés dans les modes d'utilisation de l'IA. Mais ce ne sont pas seulement les technologies qui doivent être considérées comme dignes de confiance ; le système de gouvernance lui-même, et les régulateurs qui l'appliquent, doivent également gagner la confiance du public.

L'importance croissante que les citoyens accordent à la gouvernance en tant que fondement de la confiance a été observée dans les attitudes à l'égard de la gouvernance du vaccin COVID-19 dans le monde entier, où la confiance dans le processus d'approbation a compté autant que la confiance dans les vaccins eux-mêmes pour lutter contre l'hésitation vaccinale.

Son importance dans l'espace numérique a été renforcée par le Centre for Data Ethics du gouvernement britannique, qui a constaté dans son étude COVID-19 Repository & Public Attitudes 2020 Review que "la confiance dans les règles et réglementations régissant la technologie est le principal facteur prédictif de la conviction d'une personne que la technologie numérique a un rôle à jouer dans la réponse à COVID-19". Cette confiance dans la gouvernance était nettement plus prédictive que des variables attitudinales telles que le niveau d'inquiétude des gens face à la pandémie ou la conviction que la technologie serait efficace, et que des variables démographiques telles que l'âge et le niveau d'éducation.

Mais que doivent faire les régulateurs du monde entier pour être perçus comme dignes de confiance et gagner ainsi la confiance du public dans leur approche ? Trois facteurs critiques identifiés dans la récente recherche de TIGTech sur la confiance et la gouvernance technologique peuvent aider :

1. Assurer une mise en œuvre efficace

Nos recherches montrent que les citoyens font davantage confiance à la gouvernance lorsqu'ils peuvent constater qu'elle fonctionne - lorsque les institutions de gouvernance défendent visiblement l'intérêt public, que les valeurs sont respectées, que les lois sont appliquées, que les organisations sont sanctionnées et que les infractions sont rendues publiques. Le public est plus susceptible de perdre confiance lorsqu'il perçoit que les régulateurs sont plus soucieux de faciliter le développement technologique et de donner la priorité aux préoccupations financières plutôt qu'à l'éthique, aux valeurs sociétales et aux droits de l'homme.

La proposition de loi européenne sur l'IA est véritablement innovante en ce qu'elle tente de concilier la promotion de l'innovation et le respect des valeurs européennes en identifiant clairement les applications "inacceptables" et "à haut risque", qui nécessitent une attention particulière, par rapport à un feu vert pour les domaines moins litigieux. Cependant, des commentateurs tels qu'Access Now, une coalition de plus de 110 organisations de la société civile, demandent beaucoup plus de transparence sur les critères d'attribution des risques et sur les fournisseurs et les utilisateurs de l'IA, une responsabilité plus claire pour ceux qui sont en infraction, et des droits de recours significatifs pour les personnes touchées par l'IA. Ces éléments contribueront à prouver que la loi est digne de confiance.

Le principal mécanisme d'application est l'imposition de sanctions financières importantes aux entreprises technologiques, pouvant aller jusqu'à 6 % du chiffre d'affaires mondial, l'évaluation reposant en grande partie sur l'autorégulation. Cela suffira-t-il ? Historiquement, même les sanctions financières importantes sont souvent considérées comme "un coût d'exploitation", et l'autorégulation laisse souvent les comportements inchangés.

Au fur et à mesure de la mise en œuvre de ce nouveau cadre juridique, les États membres devront peut-être envisager d'autres approches, plus innovantes et plus efficaces que de simples amendes, pour s'assurer que ce règlement remplit sa mission, à savoir obliger les entreprises à rendre des comptes et gagner ainsi la confiance des citoyens.

2. Être plus humain, plus ouvert, plus communicatif

Les gens ont davantage confiance dans la réglementation lorsqu'ils en savent plus sur les responsables. Au Royaume-Uni, par exemple, 82 % des personnes se sentent plus protégées lorsqu'elles ont entendu parler du régulateur et 67 % aimeraient en savoir plus sur ce que font les régulateurs, selon le rapport Rethinking Regulators (repenser les régulateurs) de PA Consulting .

En vertu de ce nouveau cadre juridique, les États membres seront tenus de désigner une ou plusieurs autorités nationales compétentes chargées de faire appliquer le règlement au niveau national. Il est important qu'ils fassent largement connaître l'identité de ces organismes et leurs responsabilités, et qu'ils les encouragent à s'ouvrir davantage sur leur mode de fonctionnement, leurs activités et l'impact de leur approche. Bien que cela soit inconfortable pour certains, il est particulièrement utile que les représentants des régulateurs soient nommés et visibles et qu'ils se rendent dans la communauté et dans les médias pour parler de ce qu'ils font et de la manière dont cela fonctionne, et quand cela ne fonctionne pas.

"Être moins distant, plus ouvert, plus humain" est un thème récurrent dans les dialogues citoyens qui explorent la confiance dans les régulateurs ; ils devraient commencer par leurs sites web. Ce n'est certainement pas une coïncidence si les deux régulateurs les plus fiables du Royaume-Uni - la Food Standards Agency et la Human Fertilisation and Embryology Authority - ont le site web le plus accessible et le plus informatif. Ils sont rédigés dans un langage simple, expliquent clairement ce qu'ils font et prouvent qu'ils sont ouverts, accessibles et inclusifs dans leur approche de leur rôle.

3. Nous responsabiliser et développer des relations inclusives avec les citoyens

La loi européenne sur l'IA ne permet pas d'intégrer les points de vue et les valeurs des citoyens et des personnes concernées par l'IA dans l'élaboration de son mandat. De même, comme l'indiquent les propositions de l'institut britannique Ada Lovelace visant à renforcer la loi sur l'IA , elle ne permet pas non plus aux individus de se plaindre ou de contester les systèmes d'IA en cas de violation des droits fondamentaux.

Nos travaux sur la confiance et la gouvernance technologique montrent que le fait de donner aux citoyens la possibilité de prendre des décisions éthiques complexes et d'élaborer des réglementations est un facteur important de confiance. Ce n'est pas seulement parce que, comme le souligne la recherche, les citoyens "sont plus susceptibles de faire confiance à une décision qui a été influencée par des gens ordinaires qu'à une décision prise uniquement par le gouvernement ou à huis clos" ; ou même parce que plus la diversité des perspectives intégrées dans la prise de décision est grande, plus les jugements sont sages, mais parce que l'implication et l'autonomisation des citoyens confèrent une plus grande légitimité démocratique et donc une confiance perçue dans le processus de conception de la gouvernance.

Si la confiance est vraiment indispensable, les régulateurs de l'IA dans l'UE et au-delà devront peut-être développer une nouvelle relation plus inclusive avec les citoyens, en les impliquant directement ou par le biais d'intermédiaires impartiaux dans les jugements éthiques complexes qui devront être faits pour que l'IA fonctionne pour nous tous, sans causer plus de problèmes qu'elle n'en résout. Un exemple de ce type d'action peut être trouvé au Royaume-Uni avec le Citizen Biometrics Council, qui informera directement la politique et la gouvernance des technologies de reconnaissance faciale au Royaume-Uni.

Ces trois considérations importantes contribueront grandement à gagner la confiance des citoyens dans la gouvernance de l'IA et, potentiellement, leur confiance dans ses nombreuses et diverses applications. Elles modifient également le rôle des régulateurs, les faisant passer, comme le propose PA Consulting, du statut de "chiens de garde de l'industrie à celui de champions du public". Les nouvelles règles de la Commission ouvrent la voie à ce rôle, mais elles ne seront efficaces que si les régulateurs dans les États membres et au-delà parviennent à défendre l'intérêt public par une application efficace et un engagement significatif pour aider l'IA à réaliser son potentiel pour le bien de la société.


Hilary Sutcliffe, SocietyInside, directrice de l'initiative "Trust in Tech Governance", www.tigtech.org

Vous pouvez aussi aimer

30 AVRIL 2024 - Podcast

L'IA est-elle un simple artefact ? avec Joanna Bryson

Dans cet épisode, l'animatrice Anja Kaspersen est rejointe par Joanna Bryson de l'école Hertie pour discuter de l'intersection des sciences informatiques, cognitives et comportementales et de l'IA.

Couverture du livre A Dangerous Master. CREDIT : Sentient Publications.

18 AVRIL 2024 - Article

Un maître dangereux : Bienvenue dans le monde des technologies émergentes

Dans cette préface à l'édition de poche de son livre "A Dangerous Master", Wendell Wallach aborde les percées et les questions éthiques liées à l'IA et aux technologies émergentes.

22 MARS 2024 - Podcast

Deux questions fondamentales dans la gouvernance de l'IA, avec Elizabeth Seger

Dans ce podcast intitulé "Artificial Intelligence & Equality", Wendell Wallach, membre de Carnegie-Uehiro, et Elizabeth Seger, de Demos, discutent de la manière de rendre l'IA générative sûre et démocratique.