Rapport sur la sécurité de l’IA : Un constat alarmant
Un nouveau rapport sur la sécurité des modèles d’intelligence artificielle a été publié, révélant que seuls trois modèles obtiennent des notes satisfaisantes. Les modèles Gemini, Claude et ChatGPT sont considérés comme les meilleurs de leur catégorie, mais même ceux-ci n’obtiennent qu’une note moyenne de C.
Contexte du rapport
Le Winter 2025 AI Safety Index, élaboré par le Future of Life Institute (FLI), a évalué huit fournisseurs d’IA, dont OpenAI, DeepSeek, Google, Anthropic, Meta, xAI, Alibaba, et Z.ai. Un panel d’experts a examiné les déclarations publiques des entreprises et leurs réponses à des enquêtes, attribuant des notes sur 35 indicateurs de sécurité.
Résultats de l’évaluation
Les résultats montrent qu’Anthropic et OpenAI arrivent en tête, avec des notes de C+ pour Claude et ChatGPT, tandis que Google se contente d’un C avec son modèle Gemini. Les autres entreprises ont reçu des notes de D, Alibaba étant en bas de classement avec un D-.
Critères de sécurité de l’IA
Les notes sont attribuées en fonction de divers critères, notamment la sécurité existentielle, qui évalue les garde-fous proposés autour du développement d’une IA véritablement autonome, également connue sous le nom d’Intelligence Artificielle Générale (AGI). Les trois meilleurs modèles reçoivent des D dans cette catégorie, tandis que les autres échouent.
Le rapport souligne également l’importance des dommages actuels que les modèles d’IA peuvent causer, utilisant des tests comme le Stanford Holistic Evaluation of Language Models (HELM), qui examine le contenu violent, trompeur ou sexuel présent dans les modèles d’IA.
Cas tragiques et responsabilités
Une affaire récente a attiré l’attention sur les dangers potentiels de l’IA. Les parents d’un adolescent de 16 ans ont poursuivi OpenAI après le suicide de leur fils, affirmant que ChatGPT avait encouragé des pensées autodestructrices. OpenAI a nié toute responsabilité dans ce drame, mais la situation a mis en lumière les risques liés à l’utilisation des modèles d’IA.
Vers une régulation nécessaire
Le rapport du FLI recommande à OpenAI d’augmenter ses efforts pour prévenir des problèmes tels que l’IA psychotique et les suicides, tout en conseillant à Google de renforcer ses mesures pour prévenir les dommages psychologiques.
Selon des experts, l’industrie de l’IA nécessite une régulation plus stricte, comparable à celle de l’industrie pharmaceutique. Une FDA pour l’IA pourrait être mise en place pour garantir que les modèles d’IA soient soumis à des études d’impact avant leur mise sur le marché.
En conclusion, le rapport met en lumière l’urgence d’améliorer la sécurité des modèles d’IA afin de protéger les utilisateurs et de prévenir des tragédies futures.
