Author name: Equipe Anduril

Appel à la Transparence : Protéger l’Article 49(2) de la Loi sur l’IA

CDT Europe et 60 organisations ont signé une lettre ouverte demandant le rejet de la suppression de la garantie de transparence de l’article 49(2) de la loi sur l’IA, qui compromet l’obligation de transparence essentielle à la responsabilité des fournisseurs de systèmes d’IA.

Régulation des outils de santé mentale basés sur l’IA à Seattle

Une organisation de Seattle élabore des règles de sécurité innovantes pour les outils de santé mentale basés sur l’IA, utilisés mondialement avec peu de supervision. L’objectif principal est de protéger les utilisateurs vulnérables contre les risques potentiels liés à leur expansion rapide.

Protection en temps réel des données sensibles dans les workflows d’IA

iDox.ai a lancé iDox.ai Guardrail™, une solution de protection en temps réel qui empêche l’exposition des données sensibles lors de l’utilisation des outils d’IA, en appliquant des contrôles de confidentialité et de sécurité garantissant que les informations confidentielles restent sur les appareils des employés.

Anthropic Investit 20 Millions de Dollars pour Réguler l’IA en 2026

Anthropic engage 20 millions de dollars dans un groupe politique soutenant des candidats favorables à la réglementation de l’IA avant les élections de 2026. Cette initiative marque une étape importante dans la lutte pour une régulation responsable de l’intelligence artificielle.

AudacityAI : Vers un leadership éthique de l’IA

Lors de la 80e Assemblée générale des Nations Unies, l’entrepreneur d’impact social Kunal Sood a lancé AudacityAI, une initiative visant à ancrer le développement de l’IA dans des valeurs humaines et des traditions philosophiques indiennes. Ce cadre de leadership se concentre sur la responsabilité morale et l’impact sociétal, soulignant que l’avenir de l’IA dépend de la conscience et du courage des dirigeants.

La démission d’une chercheuse face à la publicité sur ChatGPT

OpenAI a commencé à tester des publicités sur ChatGPT, incitant l’ancienne chercheuse Zoë Hitzig à démissionner et à critiquer publiquement la direction de l’entreprise. Elle met en garde contre les risques de manipulation subtile liés à la création de publicités ciblées à partir des informations personnelles des utilisateurs.

Construire la confiance dans l’IA pour l’e-Discovery

Rejoignez-nous pour une discussion essentielle sur l’IA générative dans l’e-discovery, où des experts exploreront les principes fondamentaux pour valider les résultats de l’IA et garantir leur défense juridique. Découvrez comment les organisations de premier plan équilibrent innovation et responsabilité dans leurs stratégies d’adoption de l’IA.

L’Église en Thaïlande face aux défis éthiques de l’IA

L’Église catholique du nord de la Thaïlande a organisé un séminaire régional sur l’impact de l’intelligence artificielle sur la foi, soulignant la nécessité d’une utilisation responsable de cette technologie. Le Père Joseph Anucha Chaiyadej a alerté sur les dangers des deepfakes et des bulles de filtre, appelant à la transparence et à la responsabilité dans l’usage de l’IA.

Deepfakes : La vérité derrière les illusions numériques

Dans le paysage numérique actuel, les contenus vidéo et audio sont omniprésents, et nous faisons instinctivement confiance à ce que nous voyons et entendons. Cependant, la montée rapide des deepfakes remet en question cette confiance, car ces médias convaincants créés par l’intelligence artificielle peuvent faire dire ou faire faire à une personne des choses qu’elle n’a jamais faites.

Scroll to Top