OpenAI conteste les accusations de violation de la loi californienne sur la sécurité de l’IA

OpenAI et les allégations de violation de la loi californienne sur la sécurité de l’IA

OpenAI pourrait avoir violé la nouvelle loi californienne sur la sécurité de l’IA avec la sortie de son dernier modèle de codage, selon les allégations d’un groupe de surveillance de l’IA. Une telle violation pourrait exposer l’entreprise à des amendes se chiffrant en millions de dollars, et cette affaire pourrait établir un précédent pour tester pour la première fois les dispositions de la nouvelle loi.

La controverse autour de GPT-5.3-Codex

Le modèle controversé en question, GPT-5.3-Codex, a été lancé la semaine dernière dans le cadre d’un effort d’OpenAI pour reprendre son avance dans le domaine du codage assisté par l’IA. Selon les données de référence publiées par OpenAI, ce modèle montre des performances nettement supérieures aux versions antérieures de modèles, tant d’OpenAI que de concurrents tels qu’Anthropic. Cependant, il a également soulevé des préoccupations sans précédent en matière de cybersécurité.

Le PDG Sam Altman a déclaré que ce modèle était le premier à entrer dans la catégorie de risque élevé pour la cybersécurité selon le Cadre de préparation de l’entreprise, un système interne de classification des risques utilisé par OpenAI pour les lancements de modèles. Cela signifie qu’OpenAI classe ce modèle comme suffisamment capable en matière de codage pour potentiellement faciliter des dommages cybernétiques significatifs, surtout s’il est automatisé ou utilisé à grande échelle.

Les engagements de sécurité d’OpenAI

Le groupe de surveillance, Midas Project, affirme qu’OpenAI n’a pas respecté ses propres engagements en matière de sécurité, qui sont désormais légalement contraignants en vertu de la loi californienne, avec le lancement de ce modèle à haut risque. La loi SB 53, entrée en vigueur en janvier, exige que les grandes entreprises d’IA publient et respectent leurs propres cadres de sécurité, détaillant comment elles préviendront des risques catastrophiques — définis comme des incidents causant plus de 50 décès ou 1 milliard de dollars de dommages matériels.

OpenAI a déclaré que l’interprétation de Midas Project concernant la terminologie de son Cadre de préparation était erronée, bien qu’elle ait également admis que la formulation dans le cadre était ambiguë. L’entreprise a cherché à clarifier l’intention de cette formulation dans un rapport de sécurité publié avec GPT-5.3-Codex.

Les implications d’une éventuelle violation

Si une enquête est ouverte et que les allégations s’avèrent exactes, la loi SB 53 permet des sanctions substantielles pour les violations, qui pourraient atteindre des millions de dollars en fonction de la gravité et de la durée de la non-conformité. Un représentant du bureau du procureur général de Californie a déclaré que le département était engagé à faire respecter les lois de l’État, y compris celles visant à accroître la transparence et la safety dans le domaine émergent de l’IA.

Le potentiel de cette affaire est d’autant plus embarrassant qu’OpenAI n’a pas suivi ses engagements de sécurité, alors que la norme SB 53 impose simplement d’adopter un plan de sécurité volontaire de son choix et de communiquer honnêtement à ce sujet.

Scroll to Top