La loi sur la sécurité des jouets AI du Maryland : une avancée réglementaire pour protéger les enfants

La Loi sur la Sécurité des Jouets AI du Maryland : Une Réglementation au Niveau de l’État comble le Vide Fédéral sur l’IA dans les Produits pour Enfants

Le 12 février 2026, un groupe bipartisan de législateurs du Maryland a proposé la Loi sur la Sécurité des Jouets AI du Maryland. Cette législation proposée établira un cadre réglementaire complet pour les jouets équipés d’IA vendus dans l’État, couvrant tout appareil utilisant l’apprentissage automatique, l’IA conversationnelle, la modélisation comportementale, ou des processus computationnels similaires et destiné principalement aux enfants.

Ce projet de loi s’inscrit dans une tendance croissante visant à réglementer l’utilisation de l’IA dans les produits et services utilisés par les enfants, à la fois au niveau fédéral et étatique.

Obligations de Conformité Préalables au Marché

Le champ d’application de la loi est intentionnellement large et introduit des obligations de conformité préalables au marché, exigeant des fabricants qu’ils réalisent des évaluations de sécurité pour les enfants avant de commercialiser de nouveaux jouets AI aux consommateurs du Maryland. Les fabricants des jouets déjà sur le marché au 1er juillet 2026 auront jusqu’au 1er janvier 2027 pour compléter leurs évaluations initiales.

Les violations de la loi sont classées comme des pratiques commerciales iniques, abusives ou trompeuses en vertu de la Loi sur la Protection des Consommateurs du Maryland, exposant les fabricants non conformes à des sanctions civiles pouvant atteindre 50 000 $ par violation et à des rappels de produits obligatoires.

Exigences de Confidentialité des Données

La loi imposera également des exigences substantielles en matière de confidentialité des données. Les fabricants seront limités à la collecte des données utilisateur nécessaires au fonctionnement de base du jouet, et toutes ces données devront être chiffrées.

La vente ou le transfert de données utilisateur d’enfants à des tiers, l’utilisation de ces données pour entraîner des modèles d’IA non liés, la publicité ciblée sur les enfants basée sur ces données, ou la conservation de ces données pendant plus de 12 mois sans consentement parental renouvelé seront strictement interdits.

En cas de violation de données, les fabricants devront notifier les parents ou tuteurs concernés dans un délai de 48 heures, soulignant ainsi la priorité donnée à la sécurité des données des enfants.

Mécanismes de Consentement et Contenu Approprié

Les jouets contenant de l’IA devront inclure des mécanismes accessibles pour l’obtention et la révocation du consentement parental. Les parents devront également pouvoir désactiver la collecte de données sans perdre la fonctionnalité de base du jouet.

De plus, les jouets seront interdits de générer du contenu sexuel, violent, émotionnellement manipulateur ou instructionnel sur des comportements nuisibles. Ils doivent incorporer des outils de modération de contenu, des filtres de conversation adaptés à l’âge, et un mode sûr automatique déclenché par des entrées nuisibles ou inconnues.

Création d’un Organe de Contrôle

Enfin, la loi créera une infrastructure de contrôle et de supervision dédiée par l’établissement du Comité de Révision de la Sécurité des Jouets AI au sein de la Division de Protection des Consommateurs du Bureau du Procureur Général. Ce comité aura pour mission de revoir la conformité des fabricants, de mener des audits indépendants des jouets AI vendus ou distribués aux enfants dans le Maryland, et d’évaluer les normes de sécurité de l’industrie.

À compter du 1er décembre 2027, le comité devra rendre compte annuellement à l’Assemblée Générale de ses constatations, indiquant ainsi que la législature considère cette loi non pas comme un ensemble de règles statiques, mais comme un cadre réglementaire vivant conçu pour évoluer avec les avancées de la technologie AI.

Conclusion

Bien que l’avenir de cette législation soit incertain, elle témoigne d’un effort concerté des législateurs pour s’attaquer à ce qui est perçu comme un manque de surveillance réglementaire de l’IA dans les jouets et autres produits destinés aux enfants.

Un régulateur qui ne prend actuellement pas de mesures pour appliquer ses pouvoirs à l’intégration des technologies AI dans les jouets est la Commission de Sécurité des Produits de Consommation (CPSC). Le 13 février 2026, la CPSC a clarifié que sa mission statutaire était traditionnellement axée sur les risques physiques prévisibles de blessures et qu’elle n’était ni équipée ni autorisée à évaluer les dangers non physiques, tels que les dommages mentaux, émotionnels ou psychologiques.

Ces approches divergentes soulignent la nécessité d’une surveillance cohérente et de flexibilité dans un schéma réglementaire en rapide évolution. Bien que les régulateurs fédéraux ne se concentrent pas sur ces questions, les vendeurs et fabricants de ces produits doivent être conscients de la possibilité d’actions réglementaires au niveau de l’État et continuer à surveiller les développements dans ce domaine.

Scroll to Top