Intelligence Artificielle dans les États
Le décret exécutif du Président Donald Trump sur l’intelligence artificielle invite à analyser une question si complexe qu’elle est rarement posée : « Quelles sont exactement les autorités dont disposent les États pour réglementer ? »
La réponse actuelle, quelque peu banale, est : « Les pouvoirs résiduaires réservés sous le dixième amendement. » En d’autres termes, cela signifie que les États peuvent faire ce que le gouvernement fédéral ne peut pas.
Pouvoirs des États
Les États ont le pouvoir de veiller à la santé, à la sécurité et au bien-être de leurs résidents. Ainsi, ils peuvent aborder des préoccupations locales par le biais de lois de zonage, de certifications professionnelles via des régimes de licence, et garantir la sécurité publique par le biais de l’application de la loi. Ces autorités constituent ce que l’on appelle souvent les « pouvoirs de police » d’un État.
Bien que cette interprétation générale des pouvoirs des États ne soit pas nécessairement incorrecte, elle manque de précision. Alors que le Task Force sur les Litiges AI créé par le décret exécutif de Trump commence son travail, une réponse plus spécifique est justifiée.
Mission du Task Force
Le task force est chargé de contester « les lois étatiques sur l’IA qui sont inconstitutionnelles, préemptées ou autrement illégales et qui nuisent à l’innovation. » En d’autres termes, sa mission est de contester les lois des États qui interfèrent avec la vision de l’Administration pour un cadre de politique nationale en IA.
Cela dit, il ne s’agit pas d’une charge illimitée. Les tribunaux fédéraux qui examinent les lois des États ne les annuleront que si elles échouent à s’aligner sur l’attribution d’autorité de la Constitution ou se révèlent autrement illégales.
Interprétation des Autorités des États
De nombreux acteurs dans les débats sur l’IA interprètent largement les autorités accordées aux États. En raison de préoccupations concernant les risques existentiels pour l’humanité et l’idée que les États doivent protéger la santé de leurs citoyens, des législateurs étatiques ont proposé et adopté des lois qui imposent des obligations significatives sur le développement de l’IA. Certains estiment qu’ils doivent avoir ce droit, car protéger la vie de leurs résidents est une priorité fondamentale et une autorité incontestée des gouvernements étatiques. Après tout, depuis la fondation, les États ont pu imposer des quarantaines par souci de santé publique – n’est-ce pas une extension de telles mesures de santé publique, mais adaptées aux menaces modernes ?
Limites des Pouvoirs de Police
Ce n’est pas si simple. Les pouvoirs de police des États sont raisonnablement larges, mais pas illimités. Les États doivent respecter à la fois une limite supérieure – le domaine des pouvoirs énumérés réservés à l’autorité fédérale – et une limite inférieure – les droits réservés aux citoyens des États. Ces contraintes ont été mises à l’épreuve dans la jurisprudence tout au long de l’histoire de notre Constitution, notamment lorsque la loi des États entre en conflit avec l’autorité exclusive du gouvernement fédéral sur le commerce interétatique et lorsque les États limitent indûment les libertés de leurs résidents.
Alors que les États peuvent ne pas être ravis d’une attaque politique contre leur législation, les décideurs qui ont fait leurs devoirs sur les limites des pouvoirs de police n’ont pas à s’inquiéter.
Évolution du Cadre Juridique
Ces notions sont relativement floues et très contextuelles. À mesure que la politique réglementaire nationale évolue, l’étendue de la préemption évolue également. L’ère de Lochner, par exemple, a été un changement de paradigme pour le pouvoir de police des États : alors que les tribunaux interprétaient de manière expansive la liberté individuelle de contracter, le pouvoir de police des États sur la santé, les protections des travailleurs et la régulation des marchés s’est considérablement rétréci – pour être restauré plus tard.
Malgré ces changements significatifs de contexte, la constitutionnalité de l’exercice des pouvoirs de police par les États suit un cadre défini. Cela peut être observé dans la jurisprudence sur les mesures de santé publique – un exemple clé des pouvoirs de police. Les ordres de quarantaine, des épidémies du XIXe siècle à la Covid-19, sont directement liés à la protection des communautés locales – l’un des éléments les plus importants des pouvoirs de police des États.
Exemples de Mesures Judiciaires
Lorsque la Cour suprême examine les lois adoptées en vertu des pouvoirs de police d’un État, elle évalue systématiquement la spécificité géographique et les atteintes justifiées aux libertés individuelles. Les tribunaux fédéraux ont annulé des mesures étatiques dont la portée était trop large dans leur atteinte aux droits individuels.
Lorsque les États adoptent des lois liées à l’IA sous prétexte de préoccupation pour le bien-être de leurs résidents, ces conditions doivent également être remplies. Cette loi concerne-t-elle uniquement le domaine géographique de l’État ? La loi aborde-t-elle rationnellement un problème auquel sont confrontées les communautés locales ? Ces limites seront fortement examinées par le Task Force sur les Litiges AI et les tribunaux fédéraux.
Lois Susceptibles de Controverse
À ce stade, nous pouvons identifier des domaines de la loi des États susceptibles de contestation sur des bases constitutionnelles. Les lois des États concernant l’utilisation de l’IA dans l’emploi et le recrutement, telles que l’Amendement IHRA de l’Illinois et la Loi sur les Interviews Vidéo d’IA, sont probablement bien dans le cadre des pouvoirs de police des États.
Les lois des États régulant la parole sont plus ambiguës. Lorsqu’elles sont étroitement interprétées pour ne s’appliquer qu’à leurs résidents, qu’elles avancent leur bien-être général et qu’elles respectent la jurisprudence du Premier Amendement, elles sont probablement à l’abri du task force de l’IA.
Cependant, des lois comme la HB4875 de l’Illinois, qui interdisent la diffusion commerciale de l’image générée par l’IA sans autorisation préalable, pourraient être jugées excessives. Exiger la collecte d’autorisations de non-résidents pour la diffusion de leur image pourrait restreindre la parole pour les Américains bien en dehors des frontières de l’Illinois.
Les lois sur la transparence et la sécurité sont probablement les plus ouvertes aux contestations par le Task Force sur les Litiges AI. Des lois telles que la SB53 de Californie et la Loi RAISE de New York, qui exigent une évaluation des risques avant le déploiement, des protocoles de sécurité et des rapports d’incidents, sont particulièrement susceptibles d’être contestées car elles régulent les laboratoires d’IA avant leur déploiement au sein de la juridiction de l’État.
Avec plusieurs centaines de lois des États sur l’IA, le Task Force sur les Litiges AI devra être sélectif dans ses litiges. L’aperçu ci-dessus devrait tracer le tableau de la bataille juridictionnelle intense à venir.
