Étude sur la gouvernance de l’IA : Examen des options politiques locales
Dans le cadre d’une récente réunion, les commissaires et le personnel ont discuté des principes et de la gestion des risques liés à l’utilisation de l’intelligence artificielle (IA) au sein de la ville. Ils ont passé en revue les directives NIST, des exemples provenant d’autres villes, ainsi que des étapes pratiques de gouvernance pour le développement de l’IA.
Approches locales de la gouvernance de l’IA
Le personnel a décrit trois approches locales générales :
- Expérimentation permissive associée à une responsabilité individuelle (modèle de Boston).
- Contrôle centralisé et approbation des outils d’IA (modèle de Seattle).
- Moratoire temporaire jusqu’à ce qu’une orientation supplémentaire soit disponible (approche associée au Maine).
Le présentateur a recommandé que la gouvernance soit la fondation avant un déploiement à grande échelle, esquissant une approche crawl-walk-run qui commence par des projets de politique, des équipes de révision, une évaluation légale et un comité de surveillance interne pour examiner les utilisations à haut risque.
Risques associés aux systèmes d’IA dans le gouvernement local
Les commissaires ont discuté des risques communs liés aux systèmes d’IA dans le gouvernement local, notamment :
- Qualité des données et risques de contamination des données lors de l’entraînement des modèles.
- Réduction de la transparence pour les modèles préentraînés de grande taille.
- Préoccupations en matière de vie privée liées aux lacs de données non structurées agrégées.
- Écarts en matière de tests et de reproductibilité.
- Risque opérationnel de l’IT clandestin si le personnel utilise des outils d’IA grand public sans approbation.
Le personnel et les commissaires ont souligné l’importance de permettre des utilisations légitimes par les départements tout en empêchant des déploiements non vérifiés.
Élaboration d’une politique sur l’IA
Le directeur des technologies de l’information a indiqué que la ville était en train de rédiger une politique sur l’IA, qui inclura des exemples et des garde-fous. Il a décrit des plans pour la formation, les exigences de citation lorsque le personnel utilise l’IA, et un processus de révision interne pour les déploiements à haut risque.
Aucune vote formel ou action n’a été prise lors de cette réunion ; les commissaires ont demandé au personnel de revenir avec des projets de politiques pour révision.
