La poésie comme arme : les failles de la sécurité de l’IA

La sécurité de l’IA fait face à un nouveau défi : la poésie. Une étude récente révèle que le langage poétique, par son imprévisibilité, peut contourner les mesures de sécurité des modèles d’IA, exposant une faiblesse structurelle dans leur compréhension du langage.

L’Illinois réglemente la thérapie mentale par intelligence artificielle

L’Illinois devient le premier État à réglementer l’utilisation de l’IA dans les services de thérapie et de psychothérapie via une loi sur le bien-être psychologique. Cette loi limite l’usage de l’IA pour les décisions thérapeutiques tout en autorisant son usage pour des tâches administratives et complémentaires sous conditions strictes de consentement.

Experts en sécurité de l’IA : La plupart des modèles échouent

Un nouveau rapport sur la sécurité de l’IA révèle que seuls trois modèles, Gemini, Claude et ChatGPT, obtiennent des notes satisfaisantes, mais même ceux-ci ne dépassent qu’une note moyenne de C. Les autres fournisseurs, y compris Alibaba, reçoivent des notes D, soulignant l’urgence d’améliorer les protocoles de sécurité.

EU AI Act : Le Guide de Conformité pour les Systèmes à Haut Risque

L’EU AI Act impose un cadre réglementaire strict basé sur le niveau de risque. Pour les entreprises développant ou utilisant des systèmes d’IA classés “à haut risque” (HRAIS), la conformité n’est pas une option mais une nécessité stratégique. Ce guide détaille les mécanismes de classification et les obligations critiques pour les fournisseurs et les déployeurs.

Scroll to Top