État des réglementations sur les deepfakes et l’IA : ce que les entreprises doivent savoir
À peine quelques années se sont écoulées, et la régulation des deepfakes a évolué d’une poignée de propositions à des centaines de projets de lois et de réglementations actives dans le monde entier.
Comment l’Europe fixe la norme en matière de régulation de l’IA
L’Union européenne prend les devants avec sa Loi sur l’IA, associant obligations contraignantes et expérimentation pour gérer les risques tout en soutenant l’innovation.
Définitions et exigences de divulgation sous la Loi sur l’IA de l’UE
La Loi sur l’IA de l’UE définit un deepfake comme un contenu image, audio ou vidéo généré ou manipulé par l’IA qui ressemble à de vraies personnes, objets ou événements, et qui semble authentique. Quiconque déploie un système d’IA pour développer du contenu deepfake doit clairement indiquer que ce contenu est généré ou manipulé artificiellement.
Les fournisseurs doivent marquer les sorties de systèmes d’IA dans un format lisible par machine pour qu’elles soient détectables comme générées ou manipulées artificiellement. Des exigences de divulgation limitées s’appliquent aux contenus deepfake destinés à l’art, la satire ou la fiction.
Les conséquences de non-conformité sous la Loi sur l’intelligence artificielle de l’UE sont significatives, avec des pénalités pouvant atteindre jusqu’à 35 millions d’euros ou jusqu’à 7% du chiffre d’affaires annuel mondial total de l’entreprise, selon ce qui est le plus élevé.
Responsabilité des plateformes sous la Loi sur la sécurité en ligne du Royaume-Uni
La Loi sur la sécurité en ligne du Royaume-Uni établit un socle de responsabilité pour les services en ligne qui hébergent, recommandent ou distribuent du contenu généré par les utilisateurs. Les plateformes doivent retirer le contenu pornographique illégal, y compris les images intimes non consensuelles générées par IA, dès qu’elles en sont notifiées.
Initiatives de sensibilisation publique et de protection des consommateurs
Les régulateurs associent de plus en plus les actions d’application à l’éducation du public. En 2025, des campagnes d’éducation lancées par des corps policiers britanniques et l’opérateur mobile EE ont aidé les familles à identifier le contenu généré par IA et les arnaques activées par IA.
Approche de l’Asie en matière de gouvernance de l’IA
Au-delà de l’Europe, d’autres juridictions étendent les régulations sur les deepfakes. Le Japon a criminalisé les images intimes non consensuelles, qu’elles soient réelles ou générées par IA, et protège les droits de personnalité. Pendant ce temps, la Chine exige que tout contenu généré par IA soit clairement étiqueté, tant visiblement que dans les métadonnées.
Efforts législatifs au niveau fédéral aux États-Unis
Aux États-Unis, la régulation de l’IA reste fragmentée. Bien que des lois fédérales traitent de formes spécifiques de préjudice lié à l’IA, il n’existe toujours pas de cadre complet régissant les deepfakes ou les médias synthétiques.
Le TAKE IT DOWN Act, signé le 19 mai 2025, rend criminel le fait de publier ou de menacer de publier des images intimes non consensuelles, y compris des deepfakes générés par IA. Les pénalités incluent des amendes et jusqu’à trois ans de prison.
Développements législatifs au niveau des États
Les États américains commencent à se regrouper autour de quelques priorités politiques récurrentes. Les régulations sur le contenu politique généré par IA se concentrent fortement sur la transparence. La Californie a adopté des lois exigeant des avertissements sur les publicités politiques générées par IA.
Des lois similaires ont été adoptées à New York, mais ces efforts rencontrent des obstacles juridiques significatifs. Les lois en cours de discussion montrent une préoccupation croissante bipartisane concernant les médias manipulés et générés.
Ces efforts législatifs mettent en lumière des schémas clés en matière de régulation de l’IA, notamment l’intégrité des élections, la responsabilité criminelle, la protection des consommateurs, et les obligations des plateformes.
