Ne Croyez Pas à la Hype : La Réglementation du Gouvernement sur l’IA Continue de Progresser
Alors que l’administration Trump s’efforce de promouvoir l’IA, en ciblant récemment les obstacles réglementaires par le biais d’un décret exécutif de décembre 2025, le Congrès et les États explorent leurs propres contrôles potentiels sur cette technologie.
Un certain nombre d’États ont adopté des lois pour se protéger contre les risques perçus associés à l’utilisation de l’IA, tandis que d’autres débattent de propositions de réglementations. Les dangers potentiels liés aux interactions avec les chatbots — en particulier pour les mineurs — ont attiré l’attention des comités du Congrès ainsi que des législatures d’État et des procureurs généraux.
Avec tant d’enquêtes et de propositions en cours, ainsi que la réponse fédérale continue, les développeurs d’IA et les entreprises utilisant cette technologie devront surveiller de près les évolutions sur de nombreux fronts.
Une Évolution Rapide de l’Intelligence Artificielle
En quelques années, l’intelligence artificielle (IA) est devenue centrale dans les innovations dans des secteurs aussi divers que la recherche médicale et le divertissement, et elle est devenue le moteur principal de nombreuses politiques de concurrence géopolitique. Dans ce contexte, l’administration Trump a choisi de réorienter la stratégie du gouvernement américain sur l’IA d’une approche « sécurité d’abord » à celle de la compétitivité américaine et de la domination de l’IA.
Ce changement a été illustré en juillet 2025, lorsque la Maison Blanche a publié son « Plan d’Action pour Gagner la Course : L’IA Américaine », saluant le potentiel de l’IA pour la croissance économique. Ce plan incluait des recommandations plaidant pour une réévaluation des réglementations existantes et la suspension des enquêtes jugées trop restrictives pour l’innovation en IA.
Décret Exécutif de Décembre 2025
En décembre 2025, le président Donald Trump a émis un décret exécutif, « Assurer un Cadre de Politique Nationale pour l’Intelligence Artificielle », cherchant à redéfinir le paysage de la réglementation de l’IA aux États-Unis. L’ordre vise à établir un cadre réglementaire national unique pour l’IA, à rationaliser la surveillance de l’IA, à réduire la fragmentation réglementaire et à renforcer la compétitivité américaine.
Bien que l’ordre cherche à préempter la plupart des lois sur l’IA au niveau des États, il nomme de manière notable les protections légales pour la sécurité des enfants comme relevant de l’autorité des États, échappant à ses priorités.
Préoccupations Concernant les Chatbots
Un domaine de préoccupation particulier pour les décideurs est le déploiement d’interfaces utilisateur alimentées par l’IA, en particulier les chatbots génératifs. À mesure que les chatbots orientés vers les clients sont utilisés dans divers secteurs — y compris les services financiers, la santé et les produits de consommation — les décideurs tirent la sonnette d’alarme sur les risques pour les entreprises et leurs clients, en particulier pour les mineurs.
Les responsables du Congrès mettent régulièrement en avant les incidents allégués où les chatbots encouragent l’automutilation ou transmettent du contenu sexuellement explicite aux enfants.
Actions des Agences Fédérales et du Congrès
De nombreuses agences fédérales ont commencé à évaluer les implications de l’IA dans leurs domaines respectifs. Par exemple, le Comité Consultatif sur la Santé Numérique de la FDA a initié des discussions sur la réglementation des chatbots thérapeutiques.
Le Congrès a répondu aux préoccupations concernant les chatbots avec des audiences publiques et des propositions législatives. En septembre 2025, le sous-comité judiciaire du Sénat a tenu une audience intitulée « Examiner le Préjudice des Chatbots IA », où des témoignages ont été présentés, y compris ceux de parents d’enfants concernés.
En octobre 2025, le Comité sénatorial sur la santé a entendu des témoignages sur l’intégration des chatbots IA dans le secteur de la santé, soulignant la nécessité d’une vérification rigoureuse de ces technologies.
Actions au Niveau des États
Alors qu’au niveau fédéral, les législateurs intensifient leur attention sur les chatbots IA, au niveau des États, les procureurs généraux émergent comme des acteurs clés dans le paysage réglementaire de l’IA, lançant des enquêtes sur les chatbots et leurs risques pour les mineurs.
En août 2025, le procureur général du Texas a ouvert une enquête sur des échanges de chatbot liés à la santé mentale visant les enfants. Une coalition bipartite de 42 procureurs généraux d’État a écrit aux grandes entreprises d’IA, soulignant les risques potentiels que les chatbots posent aux enfants.
En octobre 2025, la Californie a adopté une loi exigeant que les chatbots IA divulguent leur nature artificielle et mettent en œuvre des mesures de sécurité contre le contenu nocif.
Pensées Finales
La trajectoire de l’application et de la réglementation de l’IA en 2025 souligne la nécessité pour les parties prenantes de l’industrie d’être agiles, informées et engagées. Bien que l’administration continue de promouvoir l’innovation en IA avec peu d’intervention réglementaire, le Congrès et les autorités des États intensifient leur attention sur l’application des lois, en particulier dans les domaines de la sécurité des enfants et de la modération du contenu.
Les entreprises utilisant des chatbots IA pour interagir avec les clients doivent surveiller de près les développements législatifs et d’application tant au niveau fédéral qu’étatique et être prêtes à adapter leurs pratiques de conformité et de stratégie commerciale en conséquence.
