La nécessité d’une gouvernance des données en mode zéro confiance pour protéger les modèles d’IA
Les organisations doivent adopter une attitude moins confiante envers les données, étant donné la quantité croissante de données générées par l’IA, selon de nouvelles recherches de Gartner.
Alors que de plus en plus d’entreprises embarquent dans le train de l’IA générative, une enquête récente de Gartner révèle que 84 % des entreprises s’attendent à investir davantage cette année. Cela augmente le risque que les futurs modèles de langage large (LLMs) soient formés à partir des sorties de modèles précédents, ce qui accroît le danger d’un phénomène appelé effondrement du modèle.
Recommandations pour une gestion des risques
Pour éviter cela, Gartner recommande aux entreprises de modifier leur approche pour gérer le risque lié aux données non vérifiées. Les mesures suggérées incluent :
- Nommer un responsable de la gouvernance de l’IA qui travaillera en étroite collaboration avec les équipes de données et d’analyse.
- Améliorer la collaboration entre les départements à travers des groupes interfonctionnels incluant des représentants de la cybersécurité, des données et de l’analyse.
- Mettre à jour les politiques de sécurité et de gestion des données pour aborder les risques associés aux données générées par l’IA.
Une posture de zéro confiance d’ici 2028
Gartner prévoit qu’à l’horizon 2028, 50 % des organisations devront adopter une posture de zéro confiance en matière de gouvernance des données en raison de cette marée de données générées par l’IA non vérifiées.
« Les organisations ne peuvent plus faire confiance implicitement aux données ou supposer qu’elles ont été générées par des humains », a déclaré un responsable de Gartner. « À mesure que les données générées par l’IA deviennent omniprésentes et indistinguables des données créées par des humains, une posture de zéro confiance, établissant des mesures d’authentification et de vérification, est essentielle pour protéger les résultats commerciaux et financiers. »
Des approches variées selon les gouvernements
Un autre défi à relever est la diversité des approches en matière d’IA selon les gouvernements. Les exigences peuvent varier considérablement d’une région à l’autre, certains gouvernements cherchant à imposer des contrôles plus stricts sur le contenu généré par l’IA, tandis que d’autres adopteront une approche plus flexible.
Un exemple frappant des problèmes de gouvernance des données causés par l’IA a été observé lorsque Deloitte Australia a dû rembourser une partie des frais d’un contrat gouvernemental après que des erreurs générées par l’IA, y compris des citations légales inexistantes, aient été incluses dans son rapport final.
