Le GAO publie un cadre novateur pour la responsabilisation en matière d’IA
L’intelligence artificielle (IA) a déjà un impact profond sur le gouvernement et la société. Alors que l’IA devient de plus en plus omniprésente dans nos vies, on nous demandera souvent de faire confiance aux systèmes d’IA simplement pour leurs avantages séduisants.
Mais comment savoir si l’IA fait son travail correctement ?
L’évolution rapide de l’IA rend nécessaire la mise en place d’un cadre permettant de vérifier de manière indépendante les systèmes d’IA (même si la technologie continue de progresser). La communauté mondiale de la responsabilité a besoin d’une boîte à outils pour évaluer cette technologie en constante évolution et, plus important encore, les organisations qui construisent, achètent et déploient l’IA ont besoin d’un cadre pour comprendre comment les systèmes d’IA seront évalués.
Le Government Accountability Office (GAO) des États-Unis, reconnaissant le besoin urgent d’une gouvernance de l’IA, a récemment publié un cadre de responsabilité en matière d’IA conçu pour aider à garantir la responsabilité et l’utilisation responsable de l’IA dans les programmes et processus gouvernementaux.
“Intelligence artificielle : Un cadre de responsabilité pour les agences fédérales et autres entités” est un cadre unique, premier du genre, qui
- constitue un plan pratique et réalisable pour l’évaluation et l’audit des systèmes d’IA ;
- est suffisamment souple pour s’adapter à l’évolution des technologies ;
- permet aux non-spécialistes de poser les bonnes questions sur les systèmes d’IA ; et
- établit un critère de référence pour évaluer la sécurité, l’équité et l’efficacité des systèmes d’intelligence artificielle déployés par les pouvoirs publics .
Élaboré selon une approche véritablement collaborative – réunissant des experts du gouvernement fédéral, de l’industrie et des secteurs à but non lucratif – le cadre s’articule autour de quatre principes complémentaires portant sur (1) la gouvernance, (2) les données, (3) la performance et (4) le suivi, chacun d’entre eux intégrant des pratiques clés et concrètes, notamment les questions à poser, les procédures d’audit et les types d’éléments probants à recueillir.
Le cadre reconnaît et couvre l’ensemble du cycle de vie des systèmes d’IA (conception-développement-déploiement-contrôle). Voici quelques exemples de questions relatives au cycle de vie que le cadre aborde, en plus de domaines tels que la représentativité, la partialité et la sécurité des données
- évaluer l’expansion ou la croissance du système d’IA ;
- le portage de systèmes d’IA d’un espace d’application à un autre ;
- l’établissement de procédures de surveillance humaine ;
- la détection de la dérive du modèle ; et
- l’établissement d’indicateurs de performance.
Ce produit est la première d’une longue série d’étapes sur la voie de la responsabilisation en matière d’IA. Alors que le GAO fête cette année ses 100 ans de service au public, ce cadre de contrôle solide pour les systèmes d’IA d’aujourd’hui et de demain garantit que le GAO est prêt pour les 100 prochaines années.
Le rapport complet est disponible ici.
Pour plus d’informations sur le cadre de responsabilisation en matière d’IA, veuillez contacter :
- Taka Ariga, Chief Data Scientist et directeur de la science, de l’évaluation des technologies et de l’analyse, arigat@gao.gov
- Timothy M. Persons, PhD, Chief Scientist et Managing Director, Science, Technology Assessment, and Analytics, personst@gao.gov
- Stephen Sanford, directeur général de la planification stratégique et de la liaison externe, et directeur du GAO Center for Strategic Foresight, sanfords@gao.gov