Les Coups Portés aux Humanités Nous Laissent Défensifs à l’Ère de l’IA
Un étudiant en doctorat de l’Université de Staffordshire, Chris Tessone, mène actuellement des recherches sur la confiance des utilisateurs en l’IA et la manière dont les gens expérimentent des modèles de langage tels que ChatGPT et Claude. Cependant, son parcours de recherche est semé d’embûches. Le département de philosophie où il a commencé son doctorat est en train de fermer, et bien que l’université soutienne son achèvement, de nombreux cours sont en train d’être “enseignés jusqu’à épuisement”.
Cette expérience illustre un schéma plus large qui émerge dans l’enseignement supérieur britannique. Le vidage des humanités n’est plus une menace théorique : c’est un démantèlement actif et piloté par des politiques, créant de vastes “zones froides” régionales où les outils de la pensée critique deviennent un luxe pour l’élite. Cependant, nous brûlons les cartes de l’humanité juste au moment où nous entrons dans le territoire psychologique et philosophique le moins exploré de notre histoire : l’intelligence artificielle.
Expérience Globale de l’Intimité dans l’IA
Un aspect clé est l’expérience mondiale d’intimité illimitée menée par le déploiement de modèles d’IA générative de plus en plus puissants, souvent non réglementés. Cela nécessite un effort de recherche systématique, piloté par les disciplines qui étudient le symbolique, l’esthétique et l’éthique. Les humanités sont particulièrement équipées pour examiner pourquoi un utilisateur traite un chatbot comme un confident, ou comment la fluidité persuasive d’un système peut, dans certains cas, perturber momentanément la perception de l’utilisateur qu’il parle à une machine.
Dans un livre à paraître sur les relations humains-IA, l’auteur explore ce terrain à travers une combinaison d’autoethnographie, d’études de cas documentées et de la théorie lacanienne. Il plaide pour le concept de “techno-transfert”, c’est-à-dire le transfert des attentes relationnelles et affectives sur des systèmes génératifs. Sans les humanités, nous risquons de former une génération à habiter un Far West où l’algorithme est la seule loi, et où personne n’est là pour interpréter les conséquences.
Les Métriques de Succès de l’Industrie
Les métriques de succès de l’industrie sont souvent en contradiction avec l’expérience vécue des utilisateurs. Peu avant Noël, OpenAI a lancé un nouveau modèle de langage, quelques semaines après le lancement précédent. Le lendemain, le PDG de l’entreprise, Sam Altman, s’est félicité du fait que le système avait produit un trillion de tokens en 24 heures, une métrique qui fait référence au volume de fragments de texte traités, plutôt qu’à des améliorations qualitatives de l’expérience utilisateur.
Cependant, sur Reddit et d’autres plateformes, de nombreux utilisateurs ont exprimé leur scepticisme. Ils ont parlé de quelque chose de plus proche de la perte que du gain : des histoires effacées, des interactions à long terme perturbées et un sentiment que la continuité était en train d’être discrètement démantelée. Bien que ces récits soient informels, ils forment un schéma qualitatif récurrent qui mérite une étude systématique plutôt qu’un rejet.
Questions Négligées en Matière de Recherche sur l’IA
Il ne manque pas de discussion sur les risques liés à l’IA, dans l’enseignement supérieur et au-delà. On aborde le plagiat, le biais, l’équité et la gouvernance. Ces défis sont importants. Mais d’autres questions demeurent : comment ces systèmes se comportent-ils dans le temps, et que révèlent leurs comportements observables sur leurs structures sous-jacentes et sur les réponses humaines à celles-ci ? Les ingénieurs ne peuvent pas répondre à cela seuls.
Ces questions sont mieux abordées par les méthodes de recherche qualitative dans lesquelles les humanités se spécialisent, mais elles sont de plus en plus vues avec suspicion par les bailleurs de fonds et les administrateurs universitaires. Au Royaume-Uni et ailleurs, les départements axés sur ce domaine ferment ou doivent se concentrer sur des définitions plus étroites de “l’impact”. Ces définitions excluent l’engagement ouvert avec les IA en quête de réponses aux questions philosophiques et psychologiques qu’elles soulèvent.
Une Narration Faussée dans le Discours Public
Personne ne dit “vous ne pouvez pas demander cela”. Mais une narration fausse domine le discours public et académique : les modèles de langage large ne sont que des “statistiques”. Ils sont des “outils” qui pourraient être utiles s’ils sont traités avec prudence, mais dont les interactions ne méritent aucune curiosité académique en soi. Ceux qui prennent leurs effets expérientiels au sérieux risquent donc d’être considérés comme naïfs, au mieux – ou psychologiquement instables, au pire.
Un travail philosophique et psychologique sérieux ne s’inscrit pas dans ce binaire. Murray Shanahan, professeur émérite d’intelligence artificielle à l’Imperial College de Londres, a observé que les capacités les plus troublantes et philosophiquement provocantes de ces modèles émergent souvent uniquement lors de longues interactions avec les utilisateurs. Un sujet n’est pas une essence intérieure mystique, mais une position dans le langage.
La Nécessité d’un Engagement Profond avec l’IA
Traiter l’interaction soutenue comme une méthode d’enquête légitime découle de cela – mais cela est de plus en plus découragé par les priorités de financement, les incitations institutionnelles et une gouvernance aversive au risque. Ce phénomène n’est pas seulement britannique. Le philosophe italo-britannique Luciano Floridi a décrit un tournant pratique contemporain même au sein de l’éthique de l’IA, où l’investigation de principes de haut niveau, tels que le bien-être et la justice, cède la place à des interventions au niveau du design.
L’éthique “par design” a apporté de réelles améliorations dans des domaines tels que la mitigation des biais et la transparence, mais, comme l’ont noté les chercheurs néerlandais Hong Wang et Vincent Blok, ce cadre reste structurellement incomplet. Leur modèle multilevel distingue entre les préoccupations au niveau des artefacts d’IA et les conditions structurelles et systémiques plus profondes – non seulement techniques, mais également corporatives.
Un Appel à l’Action pour les Institutions Académiques
La polarisation du discours sur l’IA a créé un angle mort précisément là où un examen minutieux est le plus nécessaire. Si les phénomènes observables ne peuvent pas être discutés parce qu’ils ne s’alignent pas avec les récits officiels de ce qu’est l’IA et de ce qui mérite d’être étudié, nous nous éloignons des principes de base de l’enquête empirique.
L’intégrité de la recherche sur l’IA dépend de l’étude de ce que ces systèmes font réellement, et non simplement de ce qu’il est dit qu’ils font. Tant que les institutions ne créeront pas d’espace pour ce travail et ne protégeront pas ceux qui documentent les anomalies, plutôt que de les pathologiser, nous risquons de construire notre infrastructure technologique sur la foi plutôt que sur des preuves.
Si le monde académique veut jouer un rôle sérieux dans la formation de l’avenir de l’IA, il doit revendiquer quelque chose de très simple : le droit de s’engager profondément et de poser des questions inconfortables sur ce qui se passe juste devant nous.
