Le Far West de l’IA ? Pourquoi la gouvernance des données est plus importante que jamais
Alors que le gouvernement fédéral a choisi de restreindre les mandats et les réglementations des États concernant l’utilisation des outils d’IA, l’importance de la gouvernance de l’information — et la responsabilité des personnes qui gèrent les données publiques — reste inchangée.
Un récent décret exécutif a limité la capacité des États à réglementer les outils d’IA, créant ainsi un environnement propice à une innovation plus rapide et à un déploiement plus large. Mais ne vous y trompez pas : la déréglementation des outils ne signifie pas la déréglementation des données.
Les dirigeants du secteur public naviguent maintenant dans un paradoxe réglementaire : une forte incitation fédérale à l’adoption de l’IA et une réduction des frictions pour l’innovation, associées à des directives limitées sur la sécurité, la responsabilité et les risques à long terme. Dans cet environnement, la responsabilité ne disparaît pas — elle se déplace. Le fardeau du risque pèse de plus en plus sur les propriétaires d’informations responsables de la manière dont les données sont collectées, gouvernées, conservées et finalement mises à disposition des systèmes automatisés.
Les mandats du gardien
Le vide réglementaire créé par le décret exécutif récent n’élimine pas la responsabilité — il la relocalise. À mesure que les outils d’IA entrent plus rapidement dans les environnements de production, la qualité, la gouvernance et la gestion des données alimentant ces systèmes deviennent la première ligne de défense contre les risques juridiques, éthiques et opérationnels.
Le Plan d’Action IA 2025 identifie les données de haute qualité comme un actif stratégique national. Cette désignation élève les professionnels des enregistrements et des données d’un rôle de conformité à celui d’acteurs centraux dans l’adoption responsable de l’IA. Les décisions concernant les données à collecter, leur classification, leur durée de conservation et qui peut y accéder façonnent directement si les systèmes d’IA sont expliquables, défendables et fiables — ou opaques et juridiquement vulnérables.
Priorités de gouvernance
En l’absence d’un cadre fédéral complet sur l’IA, la gouvernance de l’information est devenue la couche de contrôle sur laquelle les agences peuvent agir dès aujourd’hui. Plutôt que d’attendre de nouveaux mandats, les agences qui cherchent à déployer l’IA de manière responsable doivent se concentrer sur quatre priorités de gouvernance qui sont bien établies en principe, mais nouvellement conséquentes dans un environnement propulsé par l’IA.
1. Appliquer la minimisation des données
Les systèmes d’IA sont conçus pour consommer de grands volumes de données, mais une gouvernance efficace nécessite de la retenue. Seules les données strictement nécessaires à un objectif défini et spécifique doivent être collectées ou ingérées. Lorsque qu’un modèle ne nécessite pas d’informations personnellement identifiables pour fonctionner, ces données doivent être exclues par conception.
La minimisation réduit les surfaces d’attaque, limite la portée des violations potentielles et simplifie les obligations de conformité. Elle améliore également la performance analytique en réduisant le bruit et en renforçant la pertinence — un avantage souvent négligé dans les déploiements d’IA dans le secteur public.
2. Mettre en œuvre des politiques de conservation « besoin de conserver »
La conservation des données ne peut plus être traitée comme une fonction d’archivage passive. À l’ère de l’IA, elle doit être active, intentionnelle et défendable. Des périodes de conservation claires devraient être établies non seulement pour les enregistrements, mais aussi pour les données d’entraînement de l’IA, les invites, les résultats et les interactions des utilisateurs.
Lorsque les données ne servent plus un but légal, opérationnel ou missionnel vérifié, elles doivent être détruites de manière défendable. Conserver des informations « au cas où » augmente la responsabilité à long terme sans apporter de valeur proportionnelle.
3. Exiger des techniques de préservation de la vie privée
Avant d’approuver des outils d’IA, les agences devraient évaluer rigoureusement l’architecture de la vie privée qui les sous-tend. Des techniques telles que l’anonymisation (suppression des PII tout en préservant l’utilité analytique) et la confidentialité différentielle (introduction de bruit statistique pour empêcher la ré-identification) ne sont plus des protections optionnelles.
Ces approches sont particulièrement critiques à mesure que les agences explorent des utilisations secondaires des données au-delà de leur contexte de collecte original. L’objectif est de générer des insights précis et pertinents pour la mission sans exposer ou compromettre les individus représentés dans les données.
4. Mandater une supervision humaine
Les algorithmes sont puissants, mais ils manquent de jugement, de contexte et de responsabilité. Une bonne gouvernance de l’information s’étend au-delà de la sécurisation des données pour valider comment les résultats pilotés par l’IA sont utilisés. Les décisions à enjeux élevés — en particulier celles affectant les services aux citoyens, les avantages, les actions d’exécution ou le statut juridique — ne doivent jamais reposer uniquement sur des systèmes automatisés.
L’IA fonctionne mieux comme une capacité de soutien à la décision, et non comme un décideur. Maintenir une supervision humaine garantit la responsabilité, permet un examen contextuel, détecte les hallucinations potentielles et atténue le risque de biais intégré.
Conclusion
Le paysage juridique peut être en mutation, mais l’impératif éthique reste constant. Les agences qui priorisent une forte gouvernance de l’information font plus que réduire le risque de conformité. Elles créent les conditions dans lesquelles l’IA peut être déployée de manière responsable, évoluer de manière durable et être digne de confiance par le public qu’elle est censée servir.
