Les risques de l’IA dans la législation gouvernementale

Les gouvernements utilisent l’IA pour rédiger des législations : quels risques ?

Lorsqu’ils ont examiné les preuves pour une réforme indépendante du secteur de l’eau l’année dernière, les responsables britanniques ont rencontré un problème familier : des dizaines de milliers de soumissions, toutes nécessitant une révision rapide. Pour y remédier, les ministres se sont tournés vers un outil IA interne appelé Consult, qui a trié plus de 50 000 réponses en deux heures. Ce processus a coûté 240 £, suivi de 22 heures de vérifications par des experts, ce qui pourrait économiser jusqu’à 75 000 jours d’analyse manuelle chaque année.

Un porte-parole du gouvernement britannique a déclaré que l’IA a le potentiel de transformer le fonctionnement gouvernemental, économisant du temps sur des tâches administratives de routine et permettant aux fonctionnaires de se concentrer sur l’essentiel : fournir de meilleurs services publics.

Les défis de l’utilisation de l’IA

Chris Schmitz, chercheur à l’école Hertie à Berlin, souligne que le véritable défi n’est pas seulement d’analyser le matériel de consultation, mais de prévenir le détournement du processus lui-même. Par exemple, il propose que chaque citoyen formule une seule remarque pour éviter la saturation des demandes de participation publique.

Les gouvernements du monde entier utilisent l’IA pour faire face à ces défis. Le Sénat italien, par exemple, a décrit l’utilisation de l’IA pour gérer une surcharge d’amendements, en regroupant des propositions similaires et en signalant des tactiques de retardement.

Exemples d’utilisation de l’IA

La Chambre des députés italienne soutient un projet nommé GENAI4LEX-B, qui aide à la recherche législative et à la rédaction en résumant les amendements de comité. Au Brésil, la Chambre des députés élargit son programme Ulysses, qui analyse et classe le matériel législatif. En Nouvelle-Zélande, le Bureau du conseil parlementaire teste l’utilisation de l’IA pour générer des premiers brouillons d’exposés de clauses.

En Estonie, le Premier ministre a suggéré d’utiliser l’IA pour vérifier les projets de loi, après qu’un outil d’IA a signalé des erreurs dans une législation sur les casinos en ligne, entraînant des pertes fiscales de 2 millions d’euros par mois.

Risques pour la légitimité législative

Utiliser l’IA pour traiter les réponses de consultations publiques pourrait avoir des conséquences désastreuses, notamment en permettant aux États étrangers de fausser les résultats en inondant les boîtes de réception gouvernementales de soumissions. Cela pourrait aboutir à une sorte de DDoS législatif, noyant l’engagement authentique.

Ruth Fox, directrice de la Hansard Society, met en garde contre le risque que les résultats de l’IA deviennent un recours par défaut, soulignant la nécessité d’une validation humaine pour garantir l’exactitude des thèmes et des sentiments produits.

Transparence et responsabilité

Joanna Bryson, éthicienne de l’IA, s’inquiète de la fragilité des modèles d’IA et de leurs implications pour le processus démocratique. Il est crucial que les systèmes soient audités et transparents pour assurer la responsabilité.

Aux États-Unis, le gouvernement fédéral prévoit d’utiliser l’IA pour accélérer la déréglementation, mais cela pourrait exposer les régulations assistées par l’IA à des contestations juridiques si les procédures ne sont pas suivies correctement.

Conclusion

Bien que l’utilisation de l’IA par les gouvernements puisse moderniser les processus démocratiques, elle pose également des risques importants pour la confiance publique. Si ces technologies sont principalement utilisées pour gérer des entrées générées par des machines ou pour gagner du temps, cela pourrait approfondir la méfiance que les gouvernements cherchent à réduire.

Scroll to Top