La position émergente est que les gouvernements sont au sommet du régime de gouvernance en ce qui concerne l'IA. C'est ce qu'indiquent des initiatives telles que la loi sur l'intelligence artificielle récemment annoncée et proposée par la Commission européenne (CE). Toutefois, un cadre véritablement durable à l'ère numérique nécessite une approche multipartite des questions de gouvernance et de politique en matière d'IA. Il est essentiel que les plus vulnérables puissent s'exprimer dans le cadre d'un tel processus. Il est également essentiel d'aligner les intérêts des "grandes entreprises technologiques" sur les intérêts humains, notamment en veillant à ce que l'IA ne porte pas atteinte aux droits de l'homme. Il en résulterait une société meilleure, fondée sur la confiance et réceptive à l'innovation, qui favoriserait le bien-être des entreprises technologiques et de la société qu'elles servent. Voici trois recommandations sur la manière de faire avancer les choses.
Tout d'abord, pour aligner les intérêts des entreprises technologiques sur les souhaits d'une société juste et équitable, nous devons utiliser le principe fondamental de l'offre et de la demande. Nous en aurions eu un exemple au lendemain du meurtre de George Floyd, lorsque la "culture de l'annulation" du 21e siècle a fait déferler des demandes de valorisation des droits de l'homme des personnes noires et brunes et la menace de sanctions économiques sévères si ces demandes n'étaient pas satisfaites. Les grandes entreprises ont pris conscience du risque qu'il y avait à ne pas réagir aux questions de justice sociale et aux politiques publiques inefficaces. Cette concordance entre la prise de conscience de la privation des libertés et le coût économique de l'injustice s'est traduite par une augmentation rapide de l'attention portée par les entreprises à la gouvernance sous l'angle de la responsabilité, de l'autorité réactive et de l'inclusivité. Il est encore tôt, mais on a le sentiment que ces changements seront une pièce maîtresse permanente de la stratégie des entreprises ainsi que de l'activisme social futur. Il est donc impératif que les gens soient capables de reconnaître comment leurs droits humains, comme celui de la vie privée, par exemple, sont plus que jamais menacés dans l'espace numérique et qu'ils réagissent avec un niveau d'indignation similaire à celui qu'ils auraient face à des violations de la vie privée telles que les "voyeurs" et le harcèlement criminel dans le monde physique.
Deuxièmement, les utilisateurs de la technologie numérique doivent assumer la responsabilité de la manière dont leurs propres préjugés alimentent les inégalités dont ils se plaignent. Nos préjugés se reflètent dans nos recherches, les termes que nous utilisons et les clics que nous effectuons. Ces choix entraînent les algorithmes à percevoir ce que nous apprécions et à perpétuer nos préjugés d'une manière qui va à l'encontre de nos propres intérêts dans l'utilisation quotidienne de la technologie.
Troisièmement, et dans le prolongement des deux autres points, il est impératif que la culture numérique soit une priorité dans le système éducatif formel et fasse partie de l'apprentissage tout au long de la vie. Les gens doivent être capables de profiter des avantages des technologies basées sur l'IA tout en étant capables de détecter et de lutter contre les préjudices tels que les biais et les manipulations algorithmiques. La culture numérique doit également être considérée comme un pilier de la gouvernance inclusive de l'IA. Dans le cas contraire, la participation de personnes non informées et vulnérables à la table de gouvernance ne serait que symbolique et n'aurait pas plus de valeur que si ces personnes n'étaient pas du tout impliquées dans la gouvernance.
Pia-Milan Green est chargée de recherche pour l'initiative "Intelligence artificielle et égalité" du site Carnegie Council.