Author name: Equipe Anduril

Cadre de Vérification pour les Systèmes à Haut Risque selon la Loi sur l’IA de l’UE

Cet article propose un cadre de vérification pour aider à la mise en œuvre de l’AI Act de l’UE, visant à réduire l’incertitude interprétative en organisant la vérification de la conformité selon deux dimensions fondamentales : le type de méthode et l’objet d’évaluation. Le cadre établit une communication efficace entre décideurs et praticiens, tout en alignant les exigences légales avec les normes techniques et les meilleures pratiques.

L’impact de la loi sur l’IA dans les ressources humaines

L’utilisation de l’IA dans les processus RH pose des défis majeurs pour les employeurs en Europe, avec la mise en place progressive de la loi sur l’IA. Les systèmes à haut risque affectant les conditions d’emploi doivent respecter des obligations strictes, notamment en matière de transparence, de gestion des risques et de supervision humaine.

Gérer le drift de l’IA dans le cadre de la législation européenne

Cet article examine la nécessité de gouverner l’IA adaptative et les agents dans le contexte de la loi européenne sur l’IA, en soulignant que le drift est une propriété intrinsèque des systèmes autonomes. Il met en avant l’importance de superviser le comportement évolutif des systèmes plutôt que leurs seules propriétés statiques.

Défis de la régulation de l’IA : Vers une conformité mondiale

Alors que l’intelligence artificielle (IA) mûrit, les régulateurs mondiaux intensifient leurs efforts pour garantir son développement responsable. L’Union européenne (UE) a établi un cadre réglementaire avec la loi sur l’IA, qui impose des catégories de risque claires et des obligations de transparence pour les systèmes d’IA.

Inquiétudes des dirigeants informatiques face aux nouvelles réglementations sur l’IA

Plus de sept dirigeants informatiques sur dix s’inquiètent de la capacité de leurs organisations à respecter les exigences réglementaires lors du déploiement de l’IA générative. Les réglementations sur l’IA en développement sont perçues comme complexes et fragmentées, avec des risques potentiels d’incohérences entre les lois des différents États et pays.

La loi de 1970 qui rétablit la légitimité de l’IA

La loi sur la protection des rapports de crédit de 1970, adoptée face à l’opacité des agences de notation, a posé des normes de responsabilité essentielles pour l’utilisation de l’intelligence artificielle dans des domaines critiques comme la santé et la finance.

Transparence et sécurité dans l’IA : notre cadre pour la loi californienne

Le 1er janvier, la loi californienne SB 53 sur la transparence dans l’IA avancée entrera en vigueur, imposant des exigences de sécurité et de transparence pour prévenir les risques catastrophiques. Notre Cadre de Conformité aux Normes de l’IA de Pointe (CCF) est désormais public et détaille notre approche pour évaluer et atténuer ces risques.

Scroll to Top