Établissement d’un Système de Gouvernance de l’IA à Shanghai
Le développement rapide de l’IA générative a engendré une série de risques secondaires, tels que la désinformation et la sûreté des données. Comment renforcer les fondations de sécurité pour le développement de l’intelligence artificielle ?
Un Appel à l’Action
Lors des Deux Sessions de Shanghai, une proposition a été faite pour établir un système de gouvernance de l’IA avec des caractéristiques propres à Shanghai. Il est crucial de construire un système de gouvernance agile, scientifique et systématique pour traiter les risques négatifs associés à l’IA, tout en atteignant un « usage efficace » basé sur un « contrôle approprié ».
Caractéristiques du Problème
Le mauvais usage de la technologie présente de nouvelles caractéristiques d’industrialisation, de discrétion et d’impact transsectoriel. Le système de gouvernance actuel ne répond pas adéquatement aux défis liés à la confrontation technologique, à la sûreté des données, et aux risques pour l’ordre du marché, y compris la malversation de la technologie deepfake.
Initiatives Proposées
Pour atténuer les risques négatifs, il est nécessaire d’accélérer la construction d’un système de gouvernance de l’IA qui couvre tous les domaines. Voici quelques recommandations :
- Centre de Test de Sécurité du Contenu IA Municipal : Établir un centre de test pour surveiller et prévenir les risques, en passant à une défense active plutôt qu’à un simple blocage passif.
- Normes de Filigrane Numérique : Imposer l’intégration de filigranes numériques non amovibles dans les services de contenu généré par l’IA pour assurer la traçabilité.
- Régulation sur la Protection des Mineurs : Promouvoir l’établissement d’une réglementation interdisant la génération de contenu impliquant de la violence ou des préjugés.
- Base de Données sur l’Information Fausse et les Anomalies de Données : Créer une base de données partagée pour détecter et éliminer les rumeurs générées par l’IA.
Éducation et Sensibilisation
Il est essentiel de construire une défense psychologique contre les risques associés à l’IA. L’éducation à la sécurité de l’IA devrait être intégrée dans le programme d’amélioration de la littératie numérique de la ville, en mettant l’accent sur des groupes vulnérables tels que les personnes âgées et les enfants.
Les messages clés doivent inclure des informations sur les risques tels que la falsification vidéo et les prédictions non fiables, ainsi que des techniques pratiques pour identifier les deepfakes.
