Section 230 et les plateformes alimentées par l’IA
Grok, un chatbot IA conçu par xAI, fait l’objet d’un examen mondial après avoir généré des images sexuellement explicites d’utilisateurs non consentants. Les efforts pour tenir la plateforme responsable reposent sur l’interprétation de la Section 230 de la Communications and Decency Act.
Le cadre traditionnel de la Section 230
La Section 230 protège généralement les plateformes de la responsabilité civile pour le contenu tiers. Par exemple, en vertu de cette section, Meta ne serait généralement pas tenu responsable des discours illégaux incitant à la violence publiés par un utilisateur sur sa plateforme.
Cette application traditionnelle de la Section 230 présuppose qu’un utilisateur publie du contenu et que la plateforme agit comme un hôte intermédiaire de contenu. Cependant, l’intelligence artificielle ne s’inscrit pas parfaitement dans cette dichotomie utilisateur-hôte.
Les perturbations provoquées par l’IA
L’IA remet en question l’application traditionnelle de la Section 230 de deux manières principales : l’IA comme générateur de contenu et l’IA comme curateur de contenu.
Tout d’abord, bien qu’un utilisateur puisse solliciter des sorties spécifiques et nouvelles, le contenu généré par l’IA ne peut pas être attribué uniquement à cet utilisateur. De même, le chatbot IA génératif (GAI) ne peut pas être considéré comme le seul locuteur, car ses données d’entraînement ne proviennent pas de la plateforme et les sorties générées dépendent des invites des utilisateurs. L’ambiguïté sur l’identité du « locuteur » mine le fondement de la responsabilité basée sur le locuteur de la Section 230.
De plus, même lorsque les utilisateurs créent du contenu, les algorithmes IA déterminent souvent la portée et l’impact de ce contenu sur la plateforme de médias sociaux hôte. Par exemple, le fil « Pour Vous » de TikTok ou le système de recommandation de YouTube peuvent rapidement amplifier certains posts à des audiences massives, basées sur l’engagement prévu des utilisateurs avec le contenu.
Questionnement de la neutralité des plateformes
L’assumption sous-jacente de la Section 230 — que les plateformes agissent comme des conduits neutres d’information — devient douteuse lorsque les plateformes conçoivent et mettent en œuvre activement des algorithmes de recommandation qui promeuvent ou suppriment des discours.
Des plateformes comme X utilisent désormais des bots GAI comme modérateurs de plateforme. Les modérateurs IA, comme Grok, surveillent et contribuent également au contenu de la plateforme tel que conçu par leurs développeurs.
Nouvelles obligations légales
Bien que les plateformes n’aient aucune obligation de surveiller le contenu en vertu de la Section 230, la loi fédérale américaine récemment signée par le président Donald Trump, connue sous le nom de Take It Down Act, impose une responsabilité à une plateforme en cas de non-retrait d’images intimes après notification explicite de la Federal Trade Commission de leur existence sur la plateforme.
Débat académique
Lors du séminaire de samedi, des chercheurs ont débattu de l’application de la Section 230 aux plateformes utilisant l’intelligence artificielle générative ou des algorithmes de recommandation.
Perspectives divergentes
Dans un article du Harvard Journal of Law & Technology, le praticien Graham Ryan avertit que les litiges liés à l’IA générative forceront les tribunaux à réévaluer les immunités de la Section 230 accordées aux plateformes de contenu Internet. Il prédit que les tribunaux ne prolongeront pas ces immunités à l’IA générative lorsqu’elle contribue matériellement au développement de contenu.
Margot Kaminski de l’Université du Colorado et Meg Leta Jones de l’Université de Georgetown, dans un essai du Yale Law Journal, plaident pour une approche axée sur les valeurs, où la communauté juridique devrait définir les valeurs sociétales que les régulateurs et les concepteurs d’IA cherchent à promouvoir avant de réglementer les sorties de l’IA générative.
Alan Rozenshtein, dans un essai du Yale Journal on Regulation, soutient que la Section 230 est profondément ambiguë et que les algorithmes de recommandation de contenu posent un cas difficile, car la priorisation de certains contenus et points de vue est liée à des valeurs normatives.
Louis Shaheen, dans un article pour le Seattle Journal of Technology, Environmental & Innovation Law, examine l’application de la Section 230 au contenu produit par l’IA générative, concluant que le langage de la loi protège efficacement les défendeurs contre la responsabilité.
Max Del Real, dans un commentaire pour le Washington Law Review, affirme que les algorithmes de recommandation n’étaient pas envisagés dans la Section 230, malgré les efforts des tribunaux pour adapter la règle à la technologie moderne.
Ce débat en cours souligne l’importance d’une réflexion approfondie sur les implications juridiques de l’intelligence artificielle et son interaction avec les plateformes numériques.
