Les points clés de la loi sur l’IA de l’UE

Les responsables de l’Union européenne ont atteint un accord provisoire historique sur la première législation mondiale complète sur l’intelligence artificielle, visant à réglementer l’IA selon ses risques potentiels. Cette loi établit un cadre juridique clair pour le développement et l’utilisation de l’IA, avec des obligations strictes pour les applications à haut risque.

Recul des lois sur l’IA dans la loi sur la défense nationale

Les républicains abandonnent leur opposition aux lois étatiques sur l’IA dans le cadre d’un projet de loi de défense, tandis que les partisans de la mesure soutenue par Trump explorent d’autres options face à l’opposition des démocrates et de certains républicains.

Délais imminents pour les entreprises britanniques face à la loi sur l’IA de l’UE

La loi sur l’IA de l’UE, première réglementation complète et basée sur les risques, est entrée en vigueur en août 2024 et sera mise en œuvre progressivement. Les entreprises britanniques vendant des systèmes d’IA sur le marché européen doivent se préparer à des sanctions pouvant atteindre 7 % du chiffre d’affaires mondial ou 35 millions d’euros en cas de non-conformité.

Illinois : Premier État à Réguler l’IA en Thérapie Mentale

L’Illinois est devenu le premier État américain à réglementer l’utilisation de l’IA dans les services de thérapie mentale avec la loi WOPR, protégeant ainsi les individus en garantissant que les soins restent entre les mains de professionnels qualifiés.

Innovations et Conformité : Les Entreprises Européennes à l’Avant-garde de l’IA

Les entreprises européennes privilégient des partenariats commerciaux flexibles avec des cadres de gouvernance solides pour exploiter l’IA tout en respectant les exigences de conformité des données. Le Sommet ISG AI Impact, qui se tiendra à Paris les 8 et 9 décembre, réunira des leaders de grandes entreprises telles qu’Airbus, L’Oréal et BNP Paribas pour discuter des stratégies d’IA et de gouvernance des données.

L’Australie face aux défis des risques liés à l’IA avec des lois anciennes

Le plan national de l’IA de l’Australie adopte une stratégie prudente en s’appuyant sur la législation existante sans créer une loi spécifique à l’IA. Cette approche soulève des questions sur la gestion des risques systémiques liés à la prise de décision algorithmique et à la dépendance étrangère dans un contexte technologique en évolution rapide.

2026 : L’année de la maturité de l’IA

En 2026, l’intelligence artificielle atteindra un niveau de maturité, évoluant vers des solutions pratiques et des exigences de conformité. Les entreprises devront s’adapter aux nouvelles réglementations tout en intégrant de manière structurée les agents IA dans leurs processus.

Départ d’un partenaire de Deloitte après le scandale du rapport IA

Le partenaire responsable du rapport erroné sur le bien-être, entaché d’erreurs liées à l’IA, quitte Deloitte suite à des mesures disciplinaires. Deloitte a présenté des excuses, publié une version corrigée et restitué une partie des fonds reçus.

La régulation de l’IA par l’État : l’Utah en tête de la transformation

Le gouverneur de l’Utah, Spencer Cox, plaide pour une approche étatique proactive afin de réglementer l’intelligence artificielle, visant à protéger les citoyens tout en favorisant l’innovation. Son administration établit un cadre réglementaire distinct entre l’application et le développement de l’IA.

La poésie comme arme : les failles de la sécurité de l’IA

La sécurité de l’IA fait face à un nouveau défi : la poésie. Une étude récente révèle que le langage poétique, par son imprévisibilité, peut contourner les mesures de sécurité des modèles d’IA, exposant une faiblesse structurelle dans leur compréhension du langage.

Scroll to Top