Réinventer le consentement éthique pour l’IA au travail

Commentaire : Pourquoi l’IA de bien-être au travail nécessite une nouvelle éthique du consentement

À travers les États-Unis et à l’échelle mondiale, les employeurs — y compris les entreprises, les systèmes de santé, les universités et les ONG — augmentent leur investissement dans le bien-être des travailleurs. Le marché mondial du bien-être en entreprise a atteint 53,5 milliards de dollars en ventes en 2024, avec l’Amérique du Nord en tête de l’adoption. Les programmes de bien-être en entreprise utilisent désormais l’IA pour surveiller le stress, suivre le risque d’épuisement professionnel ou recommander des interventions personnalisées.

Les fournisseurs proposant des plateformes de bien-être activées par IA, des chatbots et des outils de suivi du stress se développent rapidement. Des chatbots tels que Woebot et Wysa sont de plus en plus intégrés dans les programmes de bien-être au travail.

Récemment, la plateforme de santé indienne Tata 1mg a collaboré avec la fintech de paie OneBanc pour intégrer les soins de santé d’entreprise pilotés par l’IA directement dans les systèmes de paie, intégrant ainsi l’analytique de bien-être dans l’infrastructure d’emploi de routine plutôt que de traiter le soutien en santé mentale comme un avantage distinct.

Les promesses et les risques

Bien qu’aucune donnée publique ne quantifie de manière fiable combien de travailleurs utilisent des outils de bien-être assistés par l’IA, la croissance du marché et la prolifération des fournisseurs suggèrent que ces systèmes atteignent déjà des millions de travailleurs. Le marché des applications de santé mentale basées sur des chatbots est estimé à 2,1 milliards de dollars en 2025, avec une projection de 7,5 milliards de dollars d’ici 2034.

Des observateurs rapportent que l’IA peut potentiellement améliorer le bien-être au travail en analysant les schémas de fatigue des employés, en planifiant des micro-pauses et en signalant les premiers signes de surcharge. Des outils tels que Virtuosis AI peuvent analyser les voix et les modèles de discours pendant les réunions pour détecter le stress et la détresse émotionnelle des travailleurs.

Le consentement en question

À première vue, ces technologies promettent des soins, de la prévention et un soutien. Imaginez votre superviseur demandant : « Souhaitez-vous essayer ce nouvel outil d’IA qui aide à surveiller le stress et le bien-être ? Complètement optionnel, bien sûr. »

Cette offre semble supportive, voire généreuse. Mais si vous êtes comme la plupart des employés, vous ne vous sentez pas vraiment libre de décliner. Le consentement offert en présence d’un pouvoir managérial n’est jamais simplement un consentement — c’est une performance, souvent une obligation tacite. Au fur et à mesure que les outils de bien-être assistés par l’IA s’infiltrent plus profondément dans les lieux de travail, cette illusion de choix devient encore plus fragile.

Les défis du consentement éclairé

Les risques ne sont plus hypothétiques : Amazon a fait face à des critiques publiques concernant une surveillance au travail liée à la productivité sous couvert de bien-être, soulevant des préoccupations sur la manière dont la rhétorique du bien-être peut justifier l’expansion de la surveillance.

Au cœur de cette tension se trouve l’idéal du consentement éclairé, qui depuis des décennies constitue l’éthique de la collecte de données. Si les gens sont informés des données collectées, de leur utilisation et des risques qu’elles comportent, leur accord est considéré comme significatif. Mais ce modèle échoue lorsqu’il est appliqué aux outils de bien-être pilotés par l’IA.

Premièrement, le consentement éclairé suppose un moment d’accord unique et statique, tandis que les systèmes d’IA fonctionnent en continu. Un travailleur peut cliquer sur « oui » une fois, mais le système collecte des signaux comportementaux et physiologiques tout au long de la journée — aucun de ces signaux n’était pleinement prévisible lorsque le travailleur a donné son accord. Il semble injuste que le consentement soit un acte unique, alors que la collecte de données se poursuit indéfiniment.

Deuxièmement, l’information que les travailleurs reçoivent lors du consentement est souvent insuffisante, vague ou trop complexe. Les avis de confidentialité promettent que les données seront « agrégées », « anonymisées » ou utilisées pour « améliorer l’engagement » — des phrases qui obscurcissent la réalité que les systèmes d’IA génèrent des inférences sur l’humeur, le stress ou le désengagement.

Et puis il y a la fatigue du consentement. Les travailleurs font face à des demandes constantes — mises à jour de politique, bannières de cookies, nouvelles autorisations d’applications. Finalement, on pourrait cliquer sur « oui » simplement pour continuer à travailler. Le consentement devient alors un réflexe ou une commodité plutôt qu’un choix.

Vers une nouvelle éthique du consentement

Les lieux de travail ont fait des progrès significatifs dans le soutien au bien-être, et l’IA peut réellement aider lorsqu’elle est mise en œuvre de manière réfléchie. Pourtant, même avec un soutien structurel élargi et des technologies prometteuses, l’état d’esprit autour du travail et des attentes des travailleurs n’a pas suivi, façonnant la manière dont les outils de bien-être sont vécus et faisant souvent en sorte que les travailleurs se sentent contraints de dire oui, même lorsque cela est présenté comme « optionnel ».

Le véritable défi n’est pas de perfectionner l’IA qui prétend se soucier des travailleurs, mais de construire des lieux de travail où le soin est déjà intégré — où le consentement est réel, l’autonomie est respectée, et la technologie soutient les personnes.

Scroll to Top