Comment les lois sur le contenu généré par l’IA évoluent à travers le pays
À la fin de chaque année, nos analystes politiques partagent des informations sur les questions qui ont été au premier plan des législatures des États tout au long de l’année. Voici les grandes évolutions et les tendances générales observées en 2025 dans le domaine de la politique concernant les deepfakes, ainsi que ce à quoi vous pouvez vous attendre en 2026.
Évolution législative des deepfakes en 2025
Régulation du contenu sexual deepfake
De nombreux outils d’IA générative permettent la manipulation d’images et de vidéos de manière créative. Cependant, ces outils peuvent également être utilisés pour placer l’image de quelqu’un dans un contenu sexuel, causant ainsi des préjudices et nuisant à des réputations. De nombreux lycées à travers le pays ont été confrontés à une prolifération de deepfakes sexuels créés à partir de leurs élèves. En réponse, des législateurs dans chaque État ont introduit des projets de loi visant à réglementer la distribution de contenu deepfake sexuel. Certains projets de loi traitent des deepfakes sexuels non consensuels, d’autres des matériaux d’abus sexuel sur enfants (CSAM), et certains abordent les deux.
Exigences publicitaires pour les deepfakes politiques
La manipulation de contenu peut également être utilisée dans les communications politiques. En 2024, un candidat au Sénat américain a créé une publicité montrant son adversaire tenant une pancarte qu’elle n’a jamais tenue. Les législateurs ont cherché à exiger que les publicités politiques incluant du contenu manipulé numériquement comportent des avertissements pour informer les spectateurs que le contenu n’est pas réel.
Défis constitutionnels aux lois sur les deepfakes
Cependant, ces lois pourraient se heurter aux protections constitutionnelles pour la liberté d’expression. Déjà, la loi de Californie a été annulée par un juge fédéral, dans une décision affirmant que la loi était trop large et discriminait en fonction du contenu, alors qu’elle pourrait être ajustée pour cibler « des discours faux causant des préjudices légalement reconnus, comme des discours faux qui causent réellement une interférence électorale, une coercition ou une intimidation ». La Californie a également vu une loi annulée qui interdisait aux plateformes en ligne d’héberger du contenu politique deepfake trompeur lié à une élection.
Approches réglementaires futures pour 2026
En regardant vers 2026, les législateurs devraient élargir leur approche au-delà de la punition des créateurs et distributeurs individuels de deepfakes pour inclure les entités qui facilitent la production et la diffusion, telles que les plateformes d’IA générative, les processeurs de paiement, les plateformes d’hébergement et les fournisseurs de cloud. La loi fédérale Take it Down Act, adoptée plus tôt en 2025, exige déjà que les plateformes en ligne retirent le contenu sexuel non consensuel modifié ou généré par IA. Les États pourraient également pousser des projets de loi pour exiger des filigranes, des signatures numériques ou des balises de provenance cryptographique sur l’audio/vidéo généré par IA, potentiellement coordonnés par des normes développées par l’Institut national des normes et de la technologie (NIST) ou la Coalition for Content Provenance and Authenticity (C2PA).
Influence de la politique technologique
La politique technologique impacte presque toutes les entreprises, et les décideurs des États deviennent de plus en plus actifs dans ce domaine. Notre équipe comprend les enjeux, connaît les acteurs clés et les organisations, et nous exploitons cette expertise pour aider nos clients à naviguer efficacement et à s’engager sur leurs priorités politiques. Nous offrons des solutions stratégiques personnalisées pour vous aider à développer et à exécuter un agenda multistatistique proactif axé sur les objectifs de votre entreprise.
