Responsabilité en matière d'IA

Définition et introduction

La responsabilité de l'IA renvoie à l'idée que l'intelligence artificielle devrait être développée, déployée et utilisée de manière à ce que la responsabilité des mauvais résultats puisse être attribuée aux parties responsables. Les technologies fondées sur l'IA posent souvent des problèmes de responsabilité en raison de l'opacité et de la complexité des systèmes d'apprentissage automatique et profond, du nombre de parties prenantes généralement impliquées dans la création et la mise en œuvre des produits d'IA et du potentiel d'apprentissage dynamique de la technologie.

Les systèmes d'IA sont souvent critiqués pour être une "boîte noire", ce qui signifie que le processus qui sous-tend la réalisation d'un résultat ne peut pas être entièrement expliqué ou interprété par ses utilisateurs. Si le processus décisionnel de l'IA ne peut être expliqué ou compris, il devient très difficile d'attribuer les responsabilités et de tenir les parties responsables des résultats préjudiciables.

Pour en savoir plus sur la responsabilité de l'IA, consultez les ressources ci-dessous.

Une perte de transparence, de traçabilité et de responsabilité

"Les grands modèles de langage (LLM) sont des systèmes stochastiques impénétrables développés dans des environnements fermés, souvent par des entreprises qui ne souhaitent pas partager des informations sur leur architecture. Il est donc difficile de savoir comment et pourquoi un système a obtenu un résultat particulier. Par conséquent, il est difficile de déterminer la cause - et de tenir les bonnes personnes pour responsables - des dommages qui pourraient résulter des résultats du système".

Téléchargez le communiqué pour en savoir plus sur les compromis associés à l'utilisation des LLM dans la diplomatie.

Télécharger le communiqué

Ressources sur la responsabilité en matière d'IA

6 OCT 2022 - Podcast

L'IA pour l'accessibilité de l'information : Éthique et philosophie, avec Emad Mousavi & Paolo Verdini

Emad Mousavi et Paolo Verdini discutent de l'éthique et de la philosophie de l'IA. Ils parlent du projet Ethics Bot et explorent les questions de responsabilité.

8 JUIN 2020 - Podcast

Machines mystérieuses : Le chemin à parcourir pour l'éthique de l'IA dans la sécurité internationale, avec Arthur Holland Michel

Comment apprendre à faire confiance aux systèmes d'IA et quelles sont les implications de cette technologie lorsque les nations sont confrontées à des manifestations de masse dans un monde post-pandémique ?

Questions de discussion

  1. Pourquoi la transparence est-elle importante dans les systèmes d'IA ?
  2. Qui doit être tenu pour responsable lorsqu'un système d'intelligence artificielle commet une erreur ?
  3. Dans quelle mesure les développeurs d'IA doivent-ils être responsables des conséquences involontaires des systèmes qu'ils créent ?
  4. Quelles sont les responsabilités éventuelles des entreprises pour rendre leurs systèmes d'IA explicables ?
  5. Comment pouvons-nous rendre les systèmes d'IA complexes plus interprétables et quel rôle, le cas échéant, l'éducation doit-elle jouer dans ce processus ?
  6. Quels sont les principes éthiques et techniques qui devraient guider le développement des systèmes d'IA afin de se prémunir contre les problèmes de responsabilité de l'IA ?
  7. Comment, le cas échéant, la question de la responsabilité de l'IA peut-elle être réglementée ?
  8. Quelle est l'importance de l'explicabilité de l'IA dans des domaines critiques tels que les soins de santé et la justice pénale ?

Un cadre pour la gouvernance internationale de l'IA

À la lumière du développement rapide des applications d'intelligence artificielle générative, Carnegie Council for Ethics in International Affairs et l'Institute of Electrical and Electronics Engineers (IEEE) ont co-développé ce cadre en s'inspirant des idées discutées lors des ateliers 2023.

La proposition "est offerte pour stimuler une réflexion plus approfondie sur ce que nous avons appris de la promotion et de la gouvernance des technologies existantes, sur ce qui est nécessaire et sur les prochaines étapes à franchir".

Lire le cadre

Ressources complémentaires

Comment les villes utilisent le pouvoir des marchés publics pour une IA responsable

La Fondation Carnegie pour la paix internationale analyse la manière dont les collectivités locales californiennes transforment une fonction traditionnellement banale en un levier stratégique.

Lire

L'élaboration de mécanismes de responsabilisation pour les systèmes d'IA est essentielle au développement d'une IA digne de confiance

Le Center for American Progress a soumis un commentaire public sur la politique de responsabilité en matière d'IA de la National Telecommunications and Information Administration (NTIA).

Lire

Cadre d'éthique, de transparence et de responsabilité pour la prise de décision automatisée

Le gouvernement britannique a publié un cadre en sept points pour aider les ministères à utiliser de manière éthique les systèmes de prise de décision basés sur l'IA.

Lire

IBM Design for AI | Responsabilité

IBM affirme que "chaque personne impliquée dans la création de l'IA, à quelque étape que ce soit, est responsable de l'impact du système sur le monde, tout comme les entreprises qui investissent dans son développement".

Lire