La classification des données : clé pour débloquer l’IA, selon le responsable de la confidentialité de la Caroline du Nord
Alors que la Caroline du Nord prépare ses données pour travailler avec l’intelligence artificielle, le responsable de la confidentialité de l’État a déclaré que l’identification appropriée de ces données est la première étape critique pour réaliser le plein potentiel de l’IA.
Importance de la classification des données
Martha Wewer, en poste depuis mai dernier, travaille sur un projet de classification des données qui aidera l’État à mieux identifier ses données, facilitant ainsi les efforts en matière d’IA. Elle décrit la classification des données comme « savoir exactement quelles données vous avez, où elles se trouvent et à quel point elles sont sensibles ». Cela permet de mettre en place des contrôles de confidentialité et de sécurité, ainsi que d’atténuer les risques majeurs pour la confidentialité des données.
« Je plaisante souvent en disant que personne n’est aussi passionné par la classification des données que moi, et je pense que c’est vraiment le plus grand risque actuellement alors que nous avançons vers une plus grande utilisation de l’intelligence artificielle dans tout ce que nous faisons », a-t-elle déclaré lors d’une interview.
Progrès vers une utilisation sûre de l’IA
Bien que l’État protège déjà bien ses données, une classification appropriée aidera les agences à comprendre quelles données peuvent être utilisées avec un outil d’IA, lesquelles doivent être agrégées ou anonymisées, et quels ensembles de données sont suffisamment fiables pour être exploités.
Ce projet est également important pour la direction de l’État, le gouverneur de Caroline du Nord, Josh Stein, ayant signé un ordre exécutif l’automne dernier créant un cadre pour l’IA au niveau de l’État, un conseil de direction de l’IA, un accélérateur d’IA au sein du Département de la Technologie de l’information et des équipes de supervision dans chaque agence.
« Notre gouverneur a déclaré qu’il souhaitait construire une utilisation de l’IA sûre et fiable au sein de l’État, et être capable d’identifier nos données sensibles et de les étiqueter afin d’éviter toute fuite de données potentielle est vraiment ma priorité absolue », a ajouté Wewer.
Processus de classification des données
La classification des données commence par l’identification, c’est-à-dire la création d’un inventaire. Wewer explique que son bureau classe chaque donnée en tant que publique, interne, confidentielle, hautement sensible, etc. Cela permet à l’État de créer des règles qui contrôlent spécifiquement les données, comme : « Cet ensemble de données est acceptable pour ce cas d’utilisation d’IA, cet autre ensemble de données ne doit jamais sortir de notre environnement. »
La classification des données, souvent effectuée en parallèle avec une analyse de seuil de confidentialité, permet de mettre en place diverses protections : contrôles d’accès, cryptage, périodes de conservation, journalisation et exigences pour les fournisseurs. Les informations sensibles mal étiquetées peuvent être exposées au public ou utilisées involontairement pour former des modèles d’IA.
Les enjeux croissants de l’IA et de la confidentialité
Les enjeux ne cessent de croître alors que l’IA devient de plus en plus intégrée aux opérations gouvernementales. « Je pense qu’il y a une grande demande pour comprendre comment la confidentialité et la protection des données s’intègrent à l’intelligence artificielle », a déclaré Wewer. « C’est toujours l’éléphant dans la pièce, et je pense qu’il y a des personnes qui, en particulier dans notre culture de confidentialité à l’État, souhaitent utiliser ces outils d’IA, mais qui s’inquiètent de la confidentialité des données. »
Wewer ajoute que son bureau travaille en collaboration avec I-Sah Hsieh, secrétaire adjoint à l’IA et aux politiques, en raison des recoupements naturels entre la confidentialité, l’IA et même les cadres de gouvernance en matière de cybersécurité.
« Nous n’avions pas beaucoup de directives lorsque les gens ont commencé à parler de confidentialité, donc nous avons dû élaborer nos propres cadres et notre propre gouvernance, en dehors des structures réglementaires comme la HIPAA », conclut-elle. « Les données que nous collectons à l’État doivent être gouvernées d’une certaine manière, et c’est le même type de structure de gouvernance que vous avez pour l’intelligence artificielle. »
