La politique IA de l’Inde nécessite des mesures de protection spécifiques pour les enfants

La politique IA de l’Inde manque de protections spécifiques pour les enfants : analyse

“La sécurité ne peut pas se limiter à la conception du produit et à la sécurité par la conception. Elle doit se poursuivre à travers la surveillance, une réponse rapide, des lignes d’assistance pour les enfants et une compensation pour les survivants, car quelque chose va mal se passer”, a averti un expert, soulignant que l’approche actuelle de la gouvernance de l’IA en Inde ne prend pas suffisamment en compte les effets réels sur les enfants.

Contexte de la présentation

Lors du Sommet AI Impact en Inde à New Delhi, une session a examiné comment le cadre politique émergent de l’IA répond aux risques que rencontrent les enfants utilisant des systèmes d’IA générative et d’interaction élevée. La session, intitulée Protéger les enfants dans l’avenir IA de l’Inde : vers une politique et une gouvernance centrées sur les enfants, a rassemblé des organisations de la société civile, des représentants de plateformes, des universitaires et des experts juridiques.

Les lacunes de la réglementation actuelle

Bien que l’Inde dispose de réglementations numériques horizontales, telles que les Règles sur la technologie de l’information et la Loi sur la protection des données personnelles numériques (DPDP), il lui manque un cadre juridique spécifique pour protéger les enfants contre les préjudices liés à l’IA.

La perception des enfants sur l’IA

Les enfants en Inde perçoivent l’IA comme puissante et bénéfique, mais pas intrinsèquement sûre. Bien qu’ils décrivent souvent la vie en ligne comme agréable, seulement un enfant sur quatre se sent réellement en sécurité.

Pourquoi une gouvernance spécifique à l’IA pour les enfants est nécessaire

Plusieurs raisons justifient la nécessité d’une gouvernance spécifique à l’IA pour les enfants :

  • Échelle des dommages : En 2024, plus de 300 millions d’enfants dans le monde ont été victimes d’abus ou d’exploitation facilités par la technologie.
  • Augmentation des abus facilités par l’IA : Une augmentation de 1 325 % des matériaux d’abus sexuel générés par l’IA a été observée au cours de l’année dernière.
  • Nature évolutive de l’exploitation : L’IA est de plus en plus utilisée pour créer des matériels d’abus sexuels réels et synthétiques.
  • Écart de sécurité genré : Les jeunes femmes sont plus susceptibles de se sentir en danger en ligne que les jeunes hommes.
  • Responsabilité perçue : 48 % des enfants interrogés estiment que la responsabilité principale de leur sécurité en ligne incombe aux entreprises technologiques.

Recommandations politiques proposées

Pour répondre à ces défis, plusieurs mesures institutionnelles et politiques ont été proposées :

  • Observatoire des solutions de sécurité pour enfants : Pour agréger les innovations et les meilleures pratiques en matière de sécurité des enfants.
  • Groupe de travail sur le bien-être des enfants : Vise à façonner des solutions politiques adaptées au contexte indien.
  • Sandbox d’innovation pour la sécurité des enfants : Pour tester des interventions contre les préjudices facilités par l’IA.
  • Conseil consultatif sur la sécurité des jeunes : Pour assurer la participation significative des enfants dans la conception des politiques.
  • Renforcement du cadre juridique : Pour aborder explicitement la question des contenus générés par l’IA liés aux abus sexuels sur enfant.

Importance de la participation des jeunes

Il est crucial d’inclure les jeunes dans la conception des politiques, car les systèmes d’IA à interaction élevée comblent souvent des lacunes émotionnelles pour eux.

Les limites des garanties de conception

Bien que certains représentants de plateformes aient souligné les mesures de sécurité intégrées dans la conception, ils ont reconnu leurs limites. Les mesures de sécurité évoluent plus lentement que les risques. Par exemple, Snapchat a mis en place des réponses adaptées à l’âge et des contrôles parentaux, mais ces mesures restent itératives.

Conclusion

La discussion révèle une tension centrale dans la gouvernance de l’IA en Inde : les plateformes améliorent les garanties de conception, tandis que les victimes dépendent de remèdes ad hoc. Sans obligations spécifiques pour les enfants et évaluations d’impact adaptées, les préjudices continueront d’être traités uniquement après leur survenue.

Scroll to Top