Comment le Maine s’attaque à la régulation des images explicites générées par IA impliquant des enfants
Le matériel d’abus sexuel d’enfants est illégal tant au niveau de l’État qu’au niveau fédéral depuis des décennies. Cependant, les avancées de l’Intelligence Artificielle (IA) ont créé des échappatoires dans la législation.
Un incident survenu durant l’été a mis en lumière cette problématique, lorsqu’un homme dans le Maine a utilisé l’IA pour manipuler des photos d’enfants jouant au soccer, les transformant en images à caractère sexuel. Bien que la police connaisse l’identité de cet individu et ses actions, elle n’a pas pu l’inculper en vertu de la législation actuelle du Maine, comme rapporté par le Bangor Daily News.
Proposition législative
Une proposition devant la législature du Maine cherche à amender le code pénal afin que des accusations puissent être portées dans de tels cas. Le projet de loi, LD 524, parrainé par la députée Amy Kuhn (D-Falmouth), élargit le crime de diffusion de matériel d’abus sexuel d’enfants pour inclure des contenus créés ou modifiés par l’IA générative ou l’apprentissage automatique.
« Ce n’est plus un hypothétique », a déclaré Kuhn. « Cette technologie a créé de nouvelles façons de victimiser les enfants, et nos lois n’ont pas été mises à jour pour les protéger adéquatement. »
L’année dernière, les législateurs avaient adopté une version édulcorée, LD 1944, qui ajoutait la diffusion d’« images morphées » comme une forme de harcèlement sous la loi sur le « revenge porn ». Cependant, une proposition plus large visant à élargir la définition du matériel sexuellement explicite est de retour, et des législateurs des deux partis semblent ouverts à celle-ci.
Impact et soutien
Au cours de la première semaine de la session législative de cette année, le Comité judiciaire a avancé ce projet de loi par un vote unanime bipartisan. Le Comité de la justice pénale et de la sécurité publique a également convenu que les changements auraient un impact modéré sur le système judiciaire pénal du Maine. Les votes dans les chambres sont attendus dans les semaines à venir.
Jusqu’à présent, 28 États ont interdit la création de matériel d’abus sexuel d’enfants généré par IA, selon MultiState, une société de relations gouvernementales. Cela inclut le New Hampshire, où, depuis le 1er janvier, l’utilisation de l’IA pour créer des « représentations visuelles intimes » d’enfants est devenue un délit de classe B et une infraction nécessitant l’enregistrement.
Défis juridiques
Les États prennent ces décisions malgré un ordre exécutif du président Donald Trump en décembre visant à empêcher les États d’adopter des règles régissant l’IA. Ce mouvement s’écarte de la structure fédéraliste typique du gouvernement américain, où le pouvoir est divisé entre le gouvernement central et les États, et devrait faire face à des défis juridiques.
Le lieutenant de la police de l’État du Maine, Jason Richards, qui a enquêté sur les abus et l’exploitation des enfants pendant 21 ans, a observé une augmentation exponentielle des formes de victimisation des enfants. Il a déclaré que l’IA a été utilisée pour exploiter les enfants « de manière jamais vue auparavant ».
En 2024, le National Center for Missing and Exploited Children a reçu 67 000 rapports de matériel d’abus sexuel d’enfants généré par IA, et 485 000 rapports au cours de la première moitié de 2025, soit une augmentation de 624 %.
Opinions divergentes
Bien que le projet de loi ait été élaboré en collaboration avec le Département de la sécurité publique, plusieurs organisations, telles que l’Association des chefs de police du Maine, l’Association des procureurs du Maine et l’Office du procureur général du Maine, ont publiquement soutenu le projet. En revanche, l’Association des avocats de la défense criminelle du Maine s’y oppose, arguant que le projet est « bien intentionné mais dangereusement trop large ».
En particulier, le projet redéfinit le « matériel d’abus sexuel d’enfants » pour inclure les images créées par IA qui « semblent représenter » un mineur. L’association craint que cette définition large risque de violer les protections du Premier Amendement, car elle pourrait s’appliquer à des travaux non obscènes ou artistiques qui n’exploitent pas un enfant réel.
Elle a cité un arrêt de la Cour suprême des États-Unis de 2002 qui a annulé des parties d’une loi fédérale sur la pornographie juvénile, décidant que la manipulation graphique d’images, même si elle donne l’impression que des enfants participent à des actes sexuels, est légale et protégée par la liberté d’expression.
