De grands modèles linguistiques à des manipulations durables : la loi sur l’IA et la publicité générative
Introduction
Les grands modèles linguistiques (LLM) à usage général sont parmi les innovations les plus discutées du siècle. Des développeurs d’IA ont même été nommés personnes de l’année par le magazine Times. Parmi les LLM les plus célèbres, ChatGPT, proposé par Open AI, se distingue. Malgré son succès, Open AI fonctionne à des pertes énormes, avec un chiffre d’affaires annuel estimé à 13 milliards de dollars, ne couvrant qu’une fraction de ses coûts de calcul, qui s’élèvent à environ 1,4 trillion de dollars sur huit ans.
La préparation d’Open AI à inclure de la publicité soulève des préoccupations éthiques et légales significatives.
Risques de manipulation
Considérons un scénario potentiel où un individu, en détresse à cause d’une relation personnelle, se tourne vers un LLM comme ChatGPT pour obtenir des conseils. Le LLM pourrait suggérer d’investir du temps et de l’argent dans des produits de soins personnels, exploitant ainsi la situation vulnérable de l’utilisateur.
La manipulation, dans ce contexte, peut être définie comme une influence cachée sur le processus décisionnel d’autrui. Les utilisateurs, en faisant confiance à ces LLM, sont souvent inconscients que leurs données peuvent être utilisées à des fins commerciales.
Remèdes légaux
L’article 5 de la Loi sur l’IA interdit le déploiement d’une IA manipulatrice. Cependant, définir ce qui constitue la manipulation s’avère complexe. Selon les lignes directrices de la Commission, les techniques manipulatrices exploitent des biais cognitifs ou des vulnérabilités psychologiques.
La détermination de la vulnérabilité pose question. Par exemple, les utilisateurs de LLM pourraient être considérés comme vulnérables en raison de leur tendance à anthropomorphiser ces interactions, leur conférant une confiance indue.
Questions pour l’avenir
Bien que l’introduction potentielle de la publicité dans les LLM ait été mise en pause, les incitations financières demeurent. Les institutions de l’UE doivent prendre position pour protéger l’autonomie humaine face à ces enjeux technologiques.
