La loi de 1970 qui rétablit la légitimité de l’IA

La loi sur la protection des rapports de crédit de 1970, adoptée face à l’opacité des agences de notation, a posé des normes de responsabilité essentielles pour l’utilisation de l’intelligence artificielle dans des domaines critiques comme la santé et la finance.

Transparence et sécurité dans l’IA : notre cadre pour la loi californienne

Le 1er janvier, la loi californienne SB 53 sur la transparence dans l’IA avancée entrera en vigueur, imposant des exigences de sécurité et de transparence pour prévenir les risques catastrophiques. Notre Cadre de Conformité aux Normes de l’IA de Pointe (CCF) est désormais public et détaille notre approche pour évaluer et atténuer ces risques.

Comprendre et atténuer les biais de l’IA pour une gouvernance équitable

L’IA joue un rôle central dans nos sociétés, mais peut reproduire ou amplifier des biais existants, compromettant la justice et la confiance des utilisateurs. Cet article explore les types de biais liés à l’intelligence artificielle, leurs conséquences, ainsi que les meilleures pratiques pour les identifier et les atténuer.

Comprendre l’AI Act : enjeux et évolutions réglementaires

L’AI Act établit un cadre juridique pour réguler l’usage des systèmes d’IA dans l’Union européenne, avec des exigences et des lignes directrices en constante évolution. Les acteurs de l’IA doivent naviguer dans un environnement réglementaire dynamique pour garantir une innovation responsable.

Assurer la sécurité de l’IA Agentique

L’IA Agentique automatise les flux de travail et prend des décisions autonomes, offrant un grand potentiel pour les entreprises. Cependant, elle soulève des défis majeurs de sécurité et de gouvernance que les organisations doivent aborder avec un cadre adapté.

Normes harmonisées pour l’IA : enjeux et avancées

L’AI Act adopte une approche basée sur le risque, imposant des obligations légales strictes selon les dangers des systèmes d’IA. Ce cadre réglementaire s’appuie sur des normes harmonisées en cours d’élaboration, essentielles pour garantir la sécurité et la fiabilité des systèmes d’IA dans l’Union européenne.

Directives espagnoles pour se conformer à la loi sur l’IA de l’UE

En décembre 2025, l’Agence espagnole de supervision de l’intelligence artificielle (AESIA) a publié des documents d’orientation pour aider les fournisseurs et déployeurs de systèmes d’IA à haut risque à se conformer à la législation européenne. Ces recommandations pratiques, élaborées avec des experts et autorités, sont disponibles en espagnol et seront mises à jour régulièrement.

Scroll to Top