Uncategorized

Réglementation des Contenus Générés par l’IA en Chine

Le 2 février 2026, Yu Yonghe, responsable du Bureau de gestion des technologies réseau de l’Administration du cyberspace de Chine, a présenté le système chinois de labellisation du contenu généré par intelligence artificielle, conçu pour identifier ce contenu et lutter contre la désinformation grâce à des règles claires.

Gouvernance et politiques de l’IA en Europe

L’Association Européenne de Droit de Harvard est ravie d’accueillir Isabel Hahn pour une discussion-déjeuner sur la gouvernance et la politique de l’IA dans l’UE, le jeudi 5 février 2026, de 12h30 à 13h15, dans la salle Hauser 102. Isabel, responsable de la politique d’IA à la Mission de l’UE aux États-Unis, abordera des sujets allant de la Loi sur l’IA de l’UE à l’Acte RAISE aux États-Unis.

Audits critiques de la loi sur l’embauche par IA à NYC : risques accrus pour les employeurs

L’audit du contrôleur de l’État de New York a évalué l’application de la loi locale 144 par le département de protection des consommateurs et des travailleurs de New York, concluant que l’application actuelle est inefficace. Les employeurs utilisant des outils décisionnels automatisés doivent prendre des mesures proactives pour garantir la conformité face à une pression accrue d’application.

La décision de la cour sur l’exception de « cours ordinaire des affaires » pour l’analyse des appels par IA

Dans une décision importante, le tribunal du district nord de l’Illinois a statué que le service de transcription et d’analyse par intelligence artificielle (IA) de RingCentral opérait dans le cadre normal de son activité de communication électronique, ne violant ainsi pas la loi sur la protection de la vie privée des communications électroniques (ECPA). Cette décision pourrait offrir une défense solide contre les réclamations de surveillance électronique ciblant les technologies d’appel par IA.

Tendances Litigieuses en Matière de Confidentialité et d’IA en 2025

En 2025, l’intégration accrue des systèmes d’IA dans les produits et services a intensifié l’examen réglementaire des pratiques de confidentialité et de protection des consommateurs. Les actions en justice privées ont exploré de nouvelles théories juridiques liées au développement et au déploiement de l’IA.

Cadre législatif et risques de l’IA anthropomorphe

L’intelligence artificielle anthropomorphique évolue rapidement et transforme notre relation avec la technologie en introduisant des dimensions émotionnelles et sociales. Cet article examine les risques associés à ces systèmes ainsi que les premières réponses réglementaires mises en place, notamment en Chine et dans l’État de New York.

Certification ISO 42001 : ShareVault fixe un nouveau standard pour l’IA responsable dans les salles de données virtuelles

ShareVault a obtenu la certification ISO 42001 pour l’IA responsable, devenant l’un des deux seuls fournisseurs mondiaux de salles de données virtuelles à disposer d’une gouvernance IA auditée. Cette certification garantit que les fonctionnalités basées sur l’IA de la plateforme sont régies par des contrôles audités, offrant une validation indépendante aux clients des secteurs réglementés.

Règles d’IA pour les écoles de NYC : un changement nécessaire

Le département de l’éducation de New York publiera ce mois-ci de nouvelles directives encadrant l’usage de l’intelligence artificielle dans les écoles publiques, suscitant débats et préoccupations parmi les parents concernant la protection des données et la transparence.

Mettre en pratique la gouvernance de l’IA pour un impact positif

Pour que l’intelligence artificielle dans le gouvernement ait un impact positif, elle doit être digne de confiance pour les employés qui l’utilisent et pour les citoyens dont la vie peut en être affectée. La gouvernance de l’IA est essentielle pour garantir une utilisation responsable et éthique de cette technologie.

L’impact de l’Institut de Sécurité de l’IA du Royaume-Uni sur les acheteurs

L’AI Security Institute (AISI), créé par le gouvernement britannique, vise à rassurer les acheteurs en fournissant des indicateurs sur les modèles d’IA évalués en sécurité. Toutefois, la responsabilité de la mise en œuvre sécurisée des systèmes d’IA reste aux mains des organisations déployant ces modèles.

Scroll to Top