L’urgence d’une loi fédérale contre l’imitation humaine par l’IA

Nous avons URGEMMENT besoin d’une loi fédérale interdisant à l’IA d’imiter les humains

La nuit précédant mon témoignage au Sénat américain en mai 2023, le regretté philosophe Daniel Dennett m’a envoyé un manuscrit qu’il a intitulé « personnes contrefaites ». Publié quelques jours plus tard dans The Atlantic, son message était clair et urgent.

Trois ans plus tard, ce besoin est devenu encore plus pressant. La nécessité d’une loi interdisant « la création et la diffusion de personnes contrefaites » est désormais impérieuse.

Les dangers des vidéos deepfake

Deux éléments que j’ai reçus ce matin illustrent parfaitement cette nécessité. Le premier montre à quel point les vidéos deepfake ont évolué :

N’importe quelle apparence peut désormais être falsifiée à tout moment, avec suffisamment de données et pour presque rien.

Souvenez-vous d’OpenClaw et des risques de sécurité que j’avais signalés. Aujourd’hui, OpenClaw permet d’appeler des gens en prétendant être humain.

Les escrocs seront parmi les premiers à adopter ces outils. Un ami qui me filmait pour un documentaire m’a récemment raconté l’histoire d’un Canadien escroqué de centaines de milliers de dollars par une vidéo deepfake de Mark Carney. Les outils de contrefaçon sont devenus si performants que l’année 2026 connaîtra probablement plus d’escroqueries deepfake que toutes les autres années de l’histoire combinées.

Appel à l’action

Il est crucial d’informer vos représentants dès aujourd’hui que nous devons adopter des lois fédérales interdisant la présentation de contenus générés par des machines comme étant humains. Cela inclut :

  • Aucune utilisation de la première personne par les chatbots
  • Pas de deepfakes des voix et des images de personnes vivantes sans leur consentement explicite, sauf exceptions pour des parodies évidentes.

Tout cela a déjà trop avancé, trop rapidement. Nous ne devons pas laisser les lobbyistes des entreprises entraver les efforts pour aborder ces questions.

Les systèmes d’IA générative peuvent encore avoir des difficultés à raisonner, mais ils ont été conçus pour l’imitation. Leur capacité d’imitation a atteint un point où nous devons agir maintenant.

Conclusion

Pour terminer, il est essentiel de rappeler que certaines lois d’État tentent d’aborder ces problèmes. Cependant, le gouvernement fédéral s’oppose à la capacité des États à adopter et à faire respecter des régulations sur l’IA.

Scroll to Top