L’impact de l’Institut de Sécurité de l’IA du Royaume-Uni sur les acheteurs

Ce que l’Institut de Sécurité de l’IA du Royaume-Uni signifie pour les acheteurs, et non pour les constructeurs

L’établissement par le gouvernement britannique de l’Institut de Sécurité de l’IA (AISI) a d’abord pu être perçu par les acheteurs et les équipes d’approvisionnement comme une forme de réassurance, leur offrant des indicateurs faciles pour savoir quels modèles d’IA de pointe ont été évalués en matière de sécurité par le gouvernement. Cependant, le comportement d’un service d’IA reste de la responsabilité de l’utilisateur. Cela signifie que les organisations doivent continuer à effectuer leur propre diligence raisonnable pour s’assurer que les modèles et les services associés fonctionnent comme prévu.

Les outils de sécurité avancés de l’AISI

L’AISI utilise des outils de sécurité avancés pour tester les moyens de contourner les garde-fous des modèles, y compris des tests avant déploiement, des tests de simulation et des évaluations pour des cas particuliers non rencontrés lors des tests réguliers. Cependant, son champ d’action est étroit, et s’est rétréci depuis l’année dernière avec le changement de nom de l’Institut de Sécurité de l’IA, indiquant un focus sur les risques de sécurité plutôt que sur le biais algorithmique ou la liberté d’expression.

Que doivent faire les acheteurs d’IA ?

Pour les acheteurs, l’AISI n’évalue pas les effets d’un modèle d’IA de pointe sur des organisations, déploiements et secteurs spécifiques. Elle ne fournit également pas de conseils sur la manière dont une organisation devrait déployer une IA en toute sécurité ou atténuer les risques soulevés dans son évaluation d’un modèle d’IA de pointe. Cela implique que les déployeurs de systèmes d’IA sont responsables de tout ce qui pourrait mal tourner lors du déploiement.

Bien que l’AISI puisse fournir un tampon de fournisseur de confiance pour ces modèles, elle fonctionne davantage comme un émetteur de normes de sécurité pour des outils électriques. Si l’acheteur perce ensuite un câble sous tension ou ne porte pas d’équipement de protection, il est responsable des conséquences de ces actions.

Les risques moins évidents de l’IA

Contrairement à un outil électrique, certains des risques liés au déploiement de l’IA ne sont pas aussi évidents. Les acheteurs doivent être conscients de la conformité réglementaire, en respectant les réglementations régionales et nationales et les protections, ainsi que de la confidentialité des données et du traitement correct des données. Comprendre comment une IA interagira lors d’une panne ou d’une entrée incorrecte peut éviter des dommages réputationnels coûteux. Les organisations doivent également surveiller la déviation des modèles pour garantir la stabilité des performances.

La nécessité d’une surveillance constante des modèles d’IA

Une partie de cette observation se fait après le déploiement, les régulateurs modifiant fréquemment les règles autour de l’IA. La surveillance des pannes et de la déviation des modèles est un processus continu. Les acheteurs doivent être conscients du cycle de vie de chaque modèle et s’assurer qu’ils ont un fournisseur de modèles d’IA actif qui déploie régulièrement des mises à jour pour améliorer la sécurité et la sûreté des modèles.

Évolution des normes d’approvisionnement et de contractualisation

Pour les acheteurs, la réponse pratique n’est pas de se fier uniquement à l’AISI, mais d’évoluer leurs propres normes d’approvisionnement et de contractualisation. L’AISI et d’autres instituts de sécurité de l’IA à travers le monde ont classé l’IA comme un logiciel à haut risque, et donc l’approvisionnement de ce logiciel devrait ressembler à d’autres achats de logiciels critiques pour la sécurité plutôt qu’à des processus d’achat SaaS standard.

Comme plusieurs experts juridiques l’ont noté, la responsabilité ne peut pas être déléguée par le biais de l’approvisionnement. En discutant de l’utilisation de l’IA dans un tribunal, il a été souligné que : « Vous devez vous assurer que vous procurez le bon type d’IA pour une tâche, et le bon type est déterminé en partie par l’importance de la responsabilité humaine ».

Conclusion : augmenter les attentes en matière de responsabilité

Où l’AISI peut être utile, c’est d’inciter ces fournisseurs d’IA à fournir plus de feedback, de responsabilité et de transparence sur les défauts des modèles et les mises à jour. S’il y a plus d’yeux sur le fonctionnement interne d’un modèle et plus de tests effectués par des acteurs neutres, alors les acheteurs disposent d’une bien meilleure qualité d’informations lors de l’achat.

Cependant, cela n’élimine pas complètement le risque, et le point clé est que l’AISI n’a pas réduit la responsabilité, mais a augmenté les attentes de tous les acteurs impliqués. L’AISI peut filtrer les modèles d’IA vraiment défectueux des cycles d’approvisionnement, mais elle met également la pression encore plus sur les acheteurs pour qu’ils testent correctement les modèles d’IA et s’assurent qu’ils sont parfaitement adaptés à leur propre déploiement.

Scroll to Top