Mise à jour de l’Acte sur l’IA de l’UE : Report des règles jusqu’en 2027
Alors que l’intelligence artificielle devient de plus en plus intégrée dans la vie quotidienne, les gouvernements du monde entier peinent à équilibrer innovation et sécurité. L’Union Européenne (UE), qui avait promis l’une des premières législations complètes sur l’IA au monde, reporte désormais des règles clés pour les fournisseurs d’IA.
Retard dans l’application des réglementations
Les États membres de l’UE prévoient de mettre en œuvre leurs nouvelles régulations pour les fournisseurs d’IA 16 mois après la date de mise en application initialement prévue. Les délégations de l’UE ont annoncé que les réglementations révisées pour les systèmes d’IA présentant des dangers particuliers seront mises en œuvre en décembre 2027.
La Commission Européenne a proposé ce retard en novembre afin de donner aux développeurs d’IA, y compris ChatGPT et Gemini, plus de temps pour se conformer aux nouvelles obligations. L’Bureau Européen de l’IA avait programmé deux règles pour commencer leur application en août.
Processus d’approbation et obligations
Les réglementations débuteront après que les États membres et le Parlement Européen aient complété leur processus d’approbation des amendements. L’Acte sur l’IA de l’UE exige que les organisations suivent des processus spécifiques lors de l’entraînement et de l’utilisation de leurs modèles d’intelligence artificielle.
La loi inclura une interdiction de la création de contenu sexuel ou intime sans consentement, ainsi que des représentations d’abus sexuel sur des enfants, à la suite d’une controverse impliquant des images sexualisées générées par Grok sur X.
Réactions aux scandales et protections des mineurs
Le scandale de 2025 a montré que les utilisateurs de Grok pouvaient utiliser des fonctionnalités de manipulation photo, soulevant des discussions dans plusieurs pays concernant la sûreté et l’utilisation éthique des systèmes d’intelligence artificielle.
Parallèlement à l’IA, d’autres pays du monde mettent en œuvre des restrictions d’âge plus strictes sur les réseaux sociaux, qui seront appliquées conjointement avec les lois sur l’intelligence artificielle. Les politiques actuelles empêchent les utilisateurs de moins de 16 ans de s’inscrire, car les entreprises technologiques souhaitent protéger les mineurs contre l’exploitation en ligne, le contenu nuisible et les violations de la vie privée.
Le gouvernement souligne que ces mesures fonctionnent en synergie avec les réglementations de sécurité de l’IA pour protéger les enfants contre les systèmes automatisés qui collectent leurs données sans obtenir le consentement parental.
Initiatives internationales sur l’IA
Selon des rapports, d’ici début 2026, au moins 72 pays ont proposé plus de 1 000 politiques et cadres juridiques liés à l’IA pour aborder la safety publique, l’utilisation éthique et la responsabilité.
