Préoccupations de fiabilité de l’IA : Grand Traverse County propose une surveillance formelle

Préoccupations concernant la fiabilité de l’IA : Grand Traverse County propose une surveillance formelle

Le département des technologies de l’information du Grand Traverse County propose la création d’un Centre d’Excellence pour l’Intelligence Artificielle afin de superviser l’adoption sécurisée des technologies IA au sein du gouvernement local. Cette proposition sera présentée au Conseil des Commissaires le 11 février 2026, avec une demande d’investissement de 118 000 dollars pour l’exercice fiscal 2027.

Contexte et justification

Cette initiative fait suite à une récente augmentation des violations de la sécurité des données fédérales et aux préoccupations concernant la fiabilité de l’IA. Les responsables du comté ont cité le vol de milliards d’enregistrements auprès de National Public Data et des centaines de cas judiciaires impliquant des informations erronées générées par l’IA comme raisons principales de la création d’un cadre de gouvernance formel.

Le centre fournirait une supervision de la sécurité et des processus documentés pour les 600 employés et 95 000 résidents du comté.

Détails financiers

Le budget proposé de 118 000 dollars pour l’exercice fiscal 2027 comprend 75 000 dollars pour un poste à temps plein et 18 000 dollars pour des licences technologiques. Les fonds restants seront alloués à la formation, aux services de conseil et aux nouveaux outils de sécurité conçus pour détecter les hallucinations de l’IA et surveiller les injections de commandes.

Les responsables informatiques prévoient un retour positif sur investissement dans un délai de 18 à 24 mois grâce à des gains d’efficacité et à l’évitement des coûts.

La crise de fiabilité de l’IA

La proposition souligne une “Crise de Fiabilité de l’IA”, notant que 486 cas judiciaires dans le monde ont impliqué des hallucinations de l’IA, dont 324 se sont produits dans les tribunaux des États-Unis. Selon une étude de Stanford de 2024, les organisations disposant d’une gouvernance documentée de l’IA connaissent une réduction de 96 % des erreurs de l’IA.

Sans ces processus, le département informatique a averti que le comté n’aurait aucune défense en cas de litige ou de protection contre les menaces internes.

Les recommandations de gouvernance

Le directeur des technologies de l’information a rédigé la proposition ainsi qu’un cadre de gouvernance de 105 pages. Il a soutenu que le comté doit formaliser sa supervision de l’IA pour protéger la confiance du public. “La question n’est pas de savoir si nous avons besoin d’une gouvernance de l’IA – les événements récents y répondent de manière définitive”, a-t-il déclaré.

Une politique d’utilisation acceptable mise à jour exige une validation humaine pour tout contenu généré par l’IA. Selon ces règles, les employés du comté sont interdits de télécharger des informations personnellement identifiables, des dossiers de santé ou des données d’application de la loi sur des plateformes IA publiques.

Plan d’action proposé

Le plan du comté repose sur quatre piliers : gouvernance, expertise, innovation et sécurité. Cette structure vise à protéger des données sensibles provenant des services d’urgence, des tribunaux et des départements de santé.

Des succès dans d’autres régions, comme le comté de Williamson, Texas, qui a économisé 900 000 dollars et 36 000 heures de travail grâce à l’utilisation de l’IA pour les évaluations de propriétés, ont été cités comme exemples de l’efficacité de cette approche.

Les récentes défaillances de sécurité fédérales ont justifié le besoin immédiat de ce centre. Cela inclut une violation survenue en décembre 2024 au Département du Trésor, qui a exposé 3 000 fichiers, ainsi que le vol de 2,9 milliards d’enregistrements auprès de National Public Data.

Étapes suivantes

Si le Conseil des Commissaires approuve la proposition, la première réunion du comité directeur se tiendra dans un délai de 30 jours. La feuille de route de mise en œuvre prévue pour 2027 inclut une phase de fondation pour évaluer l’utilisation actuelle de l’IA et une phase de développement des capacités pour lancer des projets pilotes avec détection des hallucinations.

Scroll to Top