Départ d’un partenaire de Deloitte après le scandale du rapport IA

Deloitte : Un partenaire responsable du fiasco de l’IA quitte l’entreprise

Un partenaire non nommé, responsable du rapport sur le bien-être de Deloitte, entaché d’erreurs générées par l’IA, quittera l’organisation après que Deloitte a annoncé des mesures disciplinaires liées à la production du rapport.

Deloitte a présenté ses excuses, publié une version corrigée du rapport et restitué 98 000 $ des 440 000 $ reçus.

Examen du travail de Deloitte

Le ministère des Finances examine actuellement la qualité du travail de Deloitte dans l’ensemble du service public et pourrait exiger d’autres remboursements si Deloitte est reconnu coupable de violation du code de conduite des fournisseurs du gouvernement.

Le rapport défectueux sur le bien-être destiné au gouvernement fédéral est devenu un cas d’étude important sur la gouvernance de l’IA, la transparence et le comportement du personnel, particulièrement pertinent pour les responsables RH qui établissent des politiques sur l’IA.

Ce qui s’est passé

Deloitte a été engagé par le Ministère de l’Emploi et des Relations de Travail (DEWR) pour examiner le cadre de conformité en matière de bien-être, sous un contrat de 440 000 $. Lorsque des références académiques fictives et une citation juridique fabriquée ont été révélées dans le rapport publié, Deloitte a d’abord informé le ministère que les problèmes concernaient uniquement les citations et les notes de bas de page.

La correspondance interne a ensuite montré :

  • Deloitte a déclaré au ministère des Finances que le DEWR avait été informé que l’IA générative était à l’origine des erreurs.
  • Un sous-secrétaire adjoint du DEWR a contredit cela, affirmant que bien que Deloitte ait présenté des excuses pour les erreurs de citation, il n’avait jamais divulgué que des outils d’IA générative étaient responsables.
  • Deloitte a ensuite rétracté cette déclaration et a admis que le DEWR n’avait pas été informé que l’IA était la cause.

Cette séquence a mis en évidence non seulement des défaillances techniques, mais aussi une rupture dans la communication et la divulgation.

Utilisation d’IA non approuvée et « scope creep »

Le DEWR avait explicitement autorisé Deloitte à utiliser des outils d’IA sous licence du ministère, dans un environnement sécurisé, pour assister au travail technique, comme l’analyse de code et des flux de travail. Toutefois, le personnel de Deloitte a également utilisé des outils d’IA générative externes (y compris ChatGPT et MyAssist) pour des tâches liées à l’écriture, telles que résumer des affaires juridiques et formater des citations — des activités non couvertes par l’approbation initiale et non clairement divulguées au client.

Plus tard, Deloitte a décrit ses outils comme un système Azure OpenAI GPT-4 verrouillé fonctionnant dans l’environnement du DEWR, mais un courriel interne a reconnu que les outils ouverts n’étaient pas soumis aux mêmes contrôles. Cet écart entre l’utilisation autorisée et l’utilisation réelle illustre le type de « scope creep » de l’IA auquel les organisations font face lorsque les employés s’appuient sur des outils pratiques sous pression temporelle.

Conséquences et critiques

En raison des erreurs et des échecs de divulgation, le DEWR a demandé presque 100 000 $ de remboursement à Deloitte et confirmé que le rapport corrigé, republié fin septembre, avait été vérifié et cité manuellement sans recours à l’IA.

Le département a conservé les principales conclusions et recommandations du rapport, mais a reconnu les problèmes antérieurs de notes et références. Deloitte a maintenu que la substance de son travail restait valide et que les corrections n’affectaient pas les conclusions.

Les critiques restent sceptiques. Le Dr Christopher Rudge, qui a initialement révélé les sources falsifiées, a estimé que remplacer des références fabriquées par de nouvelles ne démontrait pas clairement que les allégations originales reposaient sur des preuves. Au Parlement, la sénatrice Deborah O’Neill a condamné la conduite de Deloitte comme un « problème d’intelligence humaine », suggérant que les acheteurs doivent vérifier qui réalise réellement le travail et si l’IA est impliquée – notant ironiquement qu’un abonnement à ChatGPT pourrait coûter moins cher que l’embauche d’un grand cabinet de conseil.

Attentes croissantes en matière de transparence de l’IA

En réponse, le gouvernement fédéral a commencé à renforcer les règles concernant l’utilisation de l’IA dans le conseil au secteur public. Les grandes entreprises doivent désormais divulguer l’utilisation de l’IA générative dans leurs travaux contractuels, et les agences intègrent des clauses spécifiques de transparence liées à l’IA dans les cahiers des charges.

Les spécialistes des achats soulignent que les contrats traditionnels ne sont pas adaptés pour gérer les outils générant du contenu ainsi que pour l’analyse de données, et que les normes doivent évoluer. Au niveau international, les régulateurs et organismes professionnels alertent sur les risques des « hallucinations » de l’IA dans des domaines comme les RH, le droit, l’audit ou les politiques, où les clients supposent que les citations et les sources sont rigoureusement vérifiées.

Implications pour les RH

Cette affaire, qui oppose un cabinet de conseil au gouvernement, met en lumière des enjeux fondamentaux pour les RH : politique, comportement, responsabilité et culture.

Les leçons clés comprennent :

  • Les politiques d’IA doivent être spécifiques et opérationnelles : Le DEWR a autorisé une utilisation limitée de l’IA pour l’analyse de code dans un environnement sécurisé. Le personnel de Deloitte a étendu l’utilisation à des tâches de contenu et de citation avec moins de contrôle. Les politiques et la formation RH doivent définir clairement les usages approuvés et interdits, sans directives vagues.
  • La divulgation est un risque humain, pas une simple formalité : Le problème principal ne résidait pas seulement dans les hallucinations de l’IA, mais dans des déclarations incomplètes ou inexactes sur les faits. Les équipes RH qui supervisent l’éthique et la conduite doivent traiter l’utilisation de l’IA comme un domaine où l’honnêteté et la transparence sont cruciales : masquer ou minimiser l’implication de l’IA est inacceptable.
  • La surveillance des fournisseurs et partenaires inclut désormais les pratiques liées à l’IA : Le défi posé par la sénatrice O’Neill – savoir qui réalise le travail et si l’IA est utilisée – concerne directement les analyses RH externalisées, les technologies de recrutement et les revues culturelles. Les dirigeants RH doivent demander aux fournisseurs d’expliquer leur usage de l’IA, leurs contrôles, leur formation et leurs processus de vérification.
  • La formation doit développer le jugement, pas seulement les compétences techniques : Deloitte affirme que ses conclusions tiennent toujours. Pourtant, la controverse montre que même si les résultats semblent valides, un mauvais jugement quant à l’utilisation et la vérification de l’IA peut nuire gravement à la réputation. Les programmes RH devraient se concentrer sur les moments où ne pas utiliser l’IA, quand la vérifier et quand escalader les problèmes.

Où vont les RH à partir de maintenant

La plupart des grandes organisations utilisent déjà l’IA générative dans les fonctions RH : rédaction de politiques, résumé de conseils juridiques, sélection de CV, analyse de résultats d’enquête. L’affaire Deloitte est peu susceptible de freiner ce mouvement, mais elle redéfinit la manière dont il doit être gouverné.

Pour les dirigeants RH, cet épisode est une invitation à poser des questions franches :

  • Où l’IA est-elle utilisée dans nos processus RH et gestion des personnes ?
  • Quels outils sont formellement approuvés, et lesquels sont utilisés de façon informelle ?
  • Nos employés savent-ils ce qui doit être divulgué aux clients, employés, syndicats et régulateurs quand l’IA est impliquée ?
  • Si un incident similaire à celui de Deloitte survenait, pourrions-nous rapidement expliquer qui a fait quoi, quels outils ont été utilisés et pourquoi ?

Au final, ce sont des personnes — pas un algorithme — qui choisissent les outils, signent les contrats, envoient la correspondance et omettent parfois des détails clés. À une époque où l’on attend des RH qu’elles possèdent la culture, l’éthique et les compétences de gestion autour de l’IA, ce facteur humain pourrait être la leçon la plus difficile et la plus importante de toutes.

Scroll to Top