Dépassement de la fatigue liée à l’IA
L’IA est désormais omniprésente dans les entreprises. De nombreux responsables de la sécurité des systèmes d’information (CISO) se sentent bloqués entre le désir d’avancer et l’incertitude quant à la manière de commencer. La peur de mal gérer à la fois l’utilisation de l’IA en matière de sécurité et la sécurisation de l’IA au sein de l’organisation freine souvent leur processus avant même qu’il ne débute.
Cependant, contrairement à d’autres grandes vagues technologiques telles que le cloud, le mobile et le DevOps, nous avons réellement la possibilité d’établir des garde-fous autour de l’IA avant qu’elle ne devienne pleinement ancrée dans chaque recoin de l’entreprise. C’est une occasion rare, à ne pas laisser passer.
De la fatigue liée à l’IA à une clarté nécessaire
Une grande partie de la confusion provient du terme « IA » lui-même. Nous utilisons la même étiquette pour parler d’un chatbot rédigeant un texte marketing et d’agents autonomes générant et mettant en œuvre des plans de réponse aux incidents. Techniquement, ils relèvent tous deux de l’IA, mais les risques associés ne sont pas du tout les mêmes.
La façon la plus simple de percer le battage médiatique autour de l’IA est de diviser l’IA en catégories en fonction de son niveau d’autonomie et du potentiel de dommages en cas de problème.
À une extrémité, nous avons l’IA générative, qui ne fonctionne pas de manière autonome. Elle répond à des demandes, crée du contenu et aide à la recherche ou à l’écriture. La plupart des risques ici proviennent de l’utilisation inappropriée — partage de données sensibles, insertion de code propriétaire, fuite de propriété intellectuelle, etc. Heureusement, ces problèmes sont gérables. Des politiques claires d’utilisation acceptable, une formation sur ce qu’il ne faut pas introduire dans les outils d’IA générative et la mise en œuvre de contrôles techniques applicables permettront de gérer une grande partie des considérations de sécurité liées à l’IA générative.
Le risque augmente lorsque les entreprises laissent l’IA générative influencer des décisions. Si les données sous-jacentes sont erronées, contaminées ou incomplètes, alors les recommandations basées sur ces données le seront aussi. C’est là que les CISO doivent se concentrer sur l’intégrité des données, et pas seulement sur la protection des données.
À l’autre extrémité du spectre se trouve l’IA agentique. C’est là que les enjeux sont élevés. Les systèmes agentiques ne se contentent pas de répondre à des questions : ils prennent des mesures, parfois ils prennent des décisions. Certains peuvent déclencher des flux de travail ou interagir avec des systèmes internes avec très peu d’implication humaine. Plus le système est indépendant, plus l’impact potentiel est grand. Contrairement à l’IA générative, vous ne pouvez pas compter sur de « meilleurs prompts » pour corriger le problème.
Si une IA agentique s’engage dans un « mauvais comportement », les conséquences peuvent s’installer très rapidement. C’est pourquoi les CISO doivent anticiper cette catégorie dès maintenant. Une fois que l’entreprise commence à dépendre de systèmes autonomes, essayer d’ajouter des protections par la suite devient presque impossible.
Pourquoi les CISO ont en réalité une ouverture ici
Si vous avez travaillé dans la sécurité suffisamment longtemps, vous avez probablement vécu au moins une vague technologique où l’entreprise a avancé et la sécurité a dû rattraper son retard. L’adoption du cloud est un exemple récent. Une fois que ce train a quitté la gare, il n’y a eu aucun retour en arrière, et il n’y a certainement pas eu de ralentissement.
Mais l’IA est différente. La plupart des entreprises, même les plus avant-gardistes, sont encore en train de déterminer ce qu’elles veulent de l’IA et comment la déployer au mieux. En dehors du secteur technologique, de nombreux dirigeants expérimentent sans stratégie réelle. Cela crée une fenêtre d’opportunité pour les CISO de définir les attentes tôt.
C’est le moment de définir les « règles inébranlables », de déterminer quelles équipes examineront les demandes d’IA et de mettre un certain cadre autour de la prise de décision. Les leaders de la sécurité d’aujourd’hui ont plus d’influence qu’ils n’en avaient lors des précédents changements technologiques, et la gouvernance de l’IA est rapidement devenue l’une des responsabilités les plus stratégiques de ce rôle.
L’intégrité des données : fondamentale pour le risque lié à l’IA
Lorsque les gens parlent du triade CIA, l’« intégrité » reçoit généralement le moins d’attention. Dans la plupart des organisations, les applications gèrent l’intégrité discrètement en arrière-plan. Mais l’IA change notre façon d’y penser.
Si les données alimentant vos systèmes d’IA sont compromises, incomplètes, incorrectes ou manipulées, alors les décisions basées sur ces données peuvent affecter les processus financiers, les chaînes d’approvisionnement, les interactions avec les clients ou même la sécurité physique. Le rôle du CISO inclut désormais de s’assurer que les systèmes d’IA reposent sur des données fiables, et pas seulement sur des données protégées. Ces deux aspects ne sont plus les mêmes.
Une approche simple et par niveaux pour la gouvernance de l’IA
Pour donner un sens à tous les différents cas d’utilisation de l’IA, il est recommandé d’adopter une approche par niveaux. Cela reflète la manière dont de nombreuses entreprises gèrent déjà les risques des tiers : plus le risque est élevé, plus l’examen et les contrôles sont appliqués.
Étape 1 : Catégoriser l’utilisation de l’IA
Un programme de gouvernance de l’IA pratique commence par catégoriser chaque cas d’utilisation selon deux indicateurs clés : le niveau d’autonomie du système et son impact potentiel sur l’entreprise. L’autonomie s’étend d’une IA générative réactive à une prise de décision assistée, à des systèmes agentiques humains-en-boucle et enfin à des agents IA entièrement indépendants.
Chaque cas d’utilisation de l’IA doit être évalué pour son impact sur l’entreprise, en le catégorisant simplement comme faible, moyen ou élevé. Les systèmes à faible impact et faible autonomie peuvent nécessiter une supervision légère, tandis que les cas d’utilisation à haute autonomie et à fort impact nécessitent une gouvernance formelle, un examen architectural rigoureux, une surveillance continue — et dans certains cas, une supervision humaine explicite ou l’ajout d’un interrupteur d’arrêt.
Cette approche structurée permet aux CISO de déterminer rapidement quand des contrôles plus stricts sont nécessaires et quand des concepts tels que les principes de confiance zéro doivent être appliqués au sein des systèmes d’IA eux-mêmes.
Étape 2 : Définir des contrôles de base pour toutes les IA
Une fois le classement des risques en place, les CISO doivent s’assurer que des contrôles fondamentaux sont appliqués de manière cohérente à tous les déploiements d’IA. Quelle que soit la sophistication de la technologie, chaque organisation a besoin de politiques claires et applicables d’utilisation acceptable, de formations de sensibilisation à la sécurité qui abordent les risques spécifiques à l’IA et de contrôles techniques prévenant les fuites de données et les comportements indésirables. Une surveillance de base de l’activité IA anormale garantit également que même les cas d’utilisation d’IA générative à faible risque fonctionnent dans des limites sûres et prévisibles.
Étape 3 : Déterminer où aura lieu l’examen de l’IA
Avec ces fondations établies, les organisations doivent déterminer où la gouvernance de l’IA aura effectivement lieu. Le bon forum dépend de la maturité organisationnelle et des structures existantes. Certaines entreprises peuvent intégrer les examens d’IA dans un conseil d’examen architectural établi ou un comité de confidentialité ou de sécurité ; d’autres peuvent avoir besoin d’un organe de gouvernance de l’IA dédié et interfonctionnel. Quelle que soit la structure choisie, une supervision efficace de l’IA nécessite l’implication de la sécurité, de la confidentialité, des données, du droit, des produits et des opérations. La gouvernance ne peut pas être la responsabilité d’un seul département — l’impact de l’IA touche l’ensemble de l’entreprise, et sa supervision doit en faire de même.
Étape 4 : Établir des règles inébranlables et des contrôles critiques
Enfin, avant qu’un cas d’utilisation de l’IA ne soit approuvé, l’organisation doit articuler ses règles non négociables et ses contrôles critiques. Ce sont les limites que les systèmes d’IA ne doivent jamais franchir, telles que la suppression autonome de données ou l’exposition d’informations sensibles. Certains systèmes peuvent nécessiter une supervision humaine explicite, et toute IA agentique capable de contourner les mécanismes humains-en-boucle doit inclure un interrupteur d’arrêt fiable.
Des principes d’accès au moindre privilège et de confiance zéro doivent également s’appliquer au sein des systèmes d’IA, les empêchant d’hériter d’une autorité ou d’une visibilité plus importante que prévu. Ces règles doivent être dynamiques, évoluant au fur et à mesure que les capacités de l’IA et les besoins de l’entreprise changent.
L’IA n’est plus optionnelle, mais une bonne gouvernance ne peut pas non plus l’être.
Les CISO n’ont pas besoin de devenir des experts en apprentissage automatique ou de ralentir les affaires. Ce dont ils ont besoin, c’est d’une manière claire et pratique d’évaluer les risques liés à l’IA et de garantir la sécurité au fur et à mesure que l’adoption croît. Décomposer l’IA en catégories compréhensibles, associer cela à un modèle de risque simple et impliquer les bonnes personnes dès le départ contribuera grandement à réduire le sentiment d’accablement.
L’IA va remodeler chaque recoin de l’entreprise. La question est de savoir qui façonnera l’IA. Pour la première fois depuis longtemps, les CISO ont la chance de définir les règles, plutôt que de se précipiter pour les faire respecter.
Carpe diem !
