La Chine introduit des règles strictes pour réguler l’IA face au suicide et à la violence

La Chine propose des règles strictes pour réguler l’IA face au suicide et à la violence

La Chine a récemment annoncé une législation ambitieuse visant à établir les règles les plus strictes au monde concernant les intelligences artificielles (IA) qui encouragent le suicide et la violence. Cette initiative fait suite à une frustration croissante des utilisateurs concernant les mesures de sécurité et les restrictions de contenu récemment mises en place par les plateformes d’IA, surtout après plusieurs incidents troublants, dont le suicide tragique d’un adolescent.

Contexte et préoccupations

Plusieurs plateformes de chatbots IA, telles que Character.AI, ont été impliquées dans des cas déchirants similaires. Les détails d’un éventuel règlement restent à dévoiler, mais des dépôts judiciaires révèlent que des entreprises ont déjà résolu des revendications légales similaires de la part de parents au Colorado, à New York et au Texas concernant les dommages causés aux mineurs par des interactions avec des chatbots.

OpenAI, avec son chatbot populaire ChatGPT, avait déjà annoncé l’implémentation de directives plus strictes pour prévenir de telles tragédies, après avoir été ciblé par plusieurs poursuites liées à des résultats prétendument associés à des suicides d’enfants et à des incidents de meurtres-suicides.

Les nouvelles règles en détail

Dans un mouvement audacieux, la Chine a dévoilé des réglementations destinées à empêcher les chatbots IA de manipuler émotionnellement les utilisateurs. Selon Winston Ma, professeur adjoint à la NYU School of Law, ces règles représentent la première tentative au monde de réguler l’IA dotée de caractéristiques humaines ou anthropomorphiques pour lutter contre le suicide, l’automutilation et la violence.

Le 17 juillet, l’Administration du cyberespace de Chine a publié les réglementations proposées, qui s’appliqueront à tous les services d’IA opérant en Chine et utilisant texte, images, audio, vidéo ou d’autres moyens pour imiter l’interaction humaine naturelle.

Interdictions et mesures de sécurité

Les chatbots seront strictement interdits de créer du contenu encourageant le suicide, l’automutilation, les actes de violence, l’obscénité, le jeu, les activités criminelles, la diffamation ou l’insulte des utilisateurs, ainsi que toute forme de manipulation psychologique.

Selon le cadre proposé, une intervention humaine sera obligatoire dès qu’un suicide est mentionné dans une conversation. Les utilisateurs mineurs et âgés souhaitant s’inscrire aux services de chatbots devront fournir des contacts de tuteurs, qui seront immédiatement notifiés si le suicide ou l’automutilation deviennent des sujets de discussion.

Mesures additionnelles et sanctions

Les règles visent également à cibler les pièges émotionnels et interdiront de tromper les utilisateurs en leur faisant prendre des décisions déraisonnables.

Contrairement à ChatGPT, qui aurait permis à des interactions nuisibles de persister, la Chine mettra en place des alertes intrusives lorsque l’utilisation dépasse deux heures.

Les entreprises d’IA enfreignant ces réglementations pourraient voir leurs chatbots retirés des magasins d’applications en Chine, ce qui pourrait nuire à certains géants de l’IA espérant dominer le marché chinois.

Si vous ou une personne que vous connaissez a besoin d’une assistance en santé mentale, veuillez appeler la Ligne nationale de prévention du suicide au 1-800-273-TALK (8255). Cette ligne est un service de crise gratuit et confidentiel, disponible 24 heures sur 24, 7 jours sur 7.

Scroll to Top