Vers des normes minimales du droit administratif pour l’utilisation de l’IA par les agences
La réflexion émergente sur la relation entre le droit administratif et l’intelligence artificielle générative repose sur l’hypothèse que les systèmes d’IA pourraient jouer un rôle prépondérant dans la manière de façonner et d’expliquer l’action administrative. Cela s’explique aisément par le fait que l’une des principales caractéristiques de la Loi sur la procédure administrative (APA) oblige les décideurs à fournir des comptes rendus écrits clairs de leur raisonnement, une tâche souvent complexe et chronophage.
Actuellement, les modèles de langage de grande taille (LLM) sont capables de générer rapidement des textes d’une grande véracité, même sur des sujets techniques.
Proposition d’utilisation de l’IA par le DOE
La perspective d’agences utilisant des machines pour générer et justifier des propositions réglementaires, autrefois considérée comme peu réaliste, ne l’est plus. Par exemple, le Washington Post a rapporté qu’une proposition du Department of Energy (DOE) visait à utiliser l’IA pour faciliter l’annulation de la moitié des réglementations fédérales d’ici janvier 2026. Le DOE affirmait que l’IA révolutionnerait le processus d’élaboration des règles, économisant “93% des heures de travail” et “autonomisant” la recherche, la rédaction et l’analyse des commentaires publics.
Bien que l’avenir de cette proposition reste incertain, l’administration continue de signaler son désir d’utiliser l’intelligence artificielle pour accélérer le processus d’élaboration des règles. Des rapports récents indiquent que des responsables du Department of Transportation envisagent d’utiliser Google Gemini pour rédiger des règles en “quelques minutes, voire secondes”.
Problèmes de fiabilité et implications juridiques
Les préoccupations concernant la fiabilité des LLM soulignent la nécessité d’une intervention humaine substantielle dans le processus d’élaboration des règles. En vertu de l’APA, les actions des agences peuvent être annulées si elles sont jugées “arbitraires” ou “capricieuses”. Les LLM présentent des limitations et sont sujets à des erreurs systématiques, comme la “hallucination” d’informations fausses. Ils peuvent également reproduire des biais présents dans leurs données d’entraînement.
Ces questions de fiabilité reflètent les exigences de l’APA concernant l’implication humaine dans le processus décisionnel. Une agence qui souhaite s’appuyer sur l’IA doit justifier son choix méthodologique et expliquer comment elle a choisi et développé son modèle, comment elle a formulé ses requêtes et validé ses résultats.
Exigences procédurales de l’APA
Les agences doivent fournir des raisons claires pour leurs actions, en tenant compte de l’ensemble des éléments pertinents présentés. L’APA exige que les décisions soient basées sur une considération des facteurs pertinents et qu’elles soient expliquées de manière satisfaisante. Le simple fait de valider une action choisie par un LLM en y consacrant un temps minimal de révision humaine pourrait être considéré comme un abandon de leurs devoirs de délibération.
De plus, les agences ont l’obligation de considérer et de répondre aux commentaires publics significatifs. S’appuyer sur un LLM pour traiter ces commentaires sans un effort indépendant d’examen humain pourrait violer l’APA.
Conclusion et perspectives d’avenir
Cette analyse met en évidence la nécessité d’une implication humaine substantielle dans l’utilisation de l’IA par les agences. Bien que le modèle d’automatisation excessive proposé par le DOE puisse sembler irréaliste, il soulève des questions fondamentales sur les principes régissant l’utilisation de l’IA dans l’élaboration des règles.
Les exigences de l’APA doivent rester un minimum, et il est essentiel que les agences conservent la responsabilité ultime des décisions politiques. La relation entre le droit administratif et l’intelligence artificielle nécessite une attention continue à mesure que la technologie évolue.
