Nouvelles lois californiennes sur l’IA : ce qui vous attend en 2026

COMMENTAIRE : Nouvelles lois sur l’IA en Californie qui vous concernent en 2026

Alors que nous entrons en 2026, il est déjà clair que 2025 sera retenue comme un tournant : l’année où l’intelligence artificielle (IA) est devenue une partie intégrante de la vie quotidienne. ChatGPT est désormais aussi présent que Google, les voitures Waymo circulent régulièrement dans les grandes villes, et il n’est plus simple de distinguer entre les images ou vidéos réelles et celles générées par l’IA.

Tous les secteurs, que ce soit le divertissement, la finance, les soins de santé et au-delà, sont confrontés aux implications de l’IA. L’éducation n’est pas en reste.

Il peut être tentant de se voiler la face, d’attendre que l’IA prenne forme et d’espérer qu’elle ne soit pas aussi importante que le prétendent ceux qui en tirent le plus de bénéfices. Mais que nous l’accueillons ou non, l’IA est là, elle s’accélère, et sa trajectoire sera façonnée par ceux qui sont prêts à s’engager. Cela inclut les éducateurs, les familles et les décideurs politiques.

Trop souvent, les gens sont étiquetés comme « optimistes de l’IA » ou « pessimistes de l’IA ». La vérité est plus complexe. Je suis les deux.

Le potentiel de l’IA

Je vois un potentiel incroyable — pour les éducateurs de personnaliser l’apprentissage, pour les étudiants d’accéder à un soutien qui semblait autrefois hors de portée, et pour les écoles de fonctionner de manière plus équitable et efficace.

Les risques associés

Mais je vois aussi de réels risques, en particulier lorsque l’innovation avance plus rapidement que les garde-fous destinés à protéger le public. Dans leur livre « Governing the Machine », trois experts en politique de l’IA soutiennent que l’adoption générale de l’IA dépend de la confiance du public, et que cette confiance se construit par une réglementation réfléchie. Après tout, monter dans un avion ou conduire une voiture sans confiance dans les normes de sécurité qui les entourent serait impensable.

Législation californienne sur l’IA

Dans ce contexte, les législateurs californiens ont pris des mesures significatives vers un leadership en matière de politique de l’IA. Bien que loin d’être parfait, la session législative de 2025 a produit une série croissante de lois visant à établir des garde-fous d’intérêt public à mesure que l’utilisation de l’IA s’élargit.

Principales lois sur l’IA de 2025

  • SB 53 (Wiener) — Loi sur la transparence de l’IA de pointe : Exige que les développeurs de modèles d’IA « de pointe » publient des protocoles de sécurité, signalent les incidents majeurs et protègent les lanceurs d’alerte. Signée en loi.
  • SB 243 (Padilla) — Protections pour les chatbots IA pour mineurs : S’applique aux outils « compagnons » utilisés par les mineurs, imposant des divulgations que les utilisateurs interagissent avec de l’IA et exigeant des protections contre le contenu nuisible. Signée en loi.
  • SB 11 (Ashby) — IA et répliques numériques : Exige des avertissements lorsque des outils d’IA peuvent générer des images, audio ou vidéo réalistes et dirige les tribunaux à examiner les normes d’authentification pour les preuves générées par l’IA. Devenue loi sans la signature du gouverneur.

Deux autres projets de loi ont été adoptés par la législature mais que le gouverneur a opposés.

Le premier, le LEAD for Kids Act (AB 1064), aurait restreint les chatbots compagnons d’IA susceptibles de promouvoir l’automutilation, la violence ou le contenu sexuel. Bien qu’il ait été conçu pour protéger les enfants, le gouverneur Gavin Newsom a opposé son veto à la loi en raison de préoccupations selon lesquelles son langage était trop large.

Le second, le No Robo Bosses Act (SB 7), aurait exigé une divulgation lorsque l’IA est utilisée dans les décisions d’embauche ou de discipline et interdit une reliance exclusive sur des systèmes automatisés. Le gouverneur a opposé son veto à ce projet de loi, décrivant les réglementations proposées comme « floues ».

Appel à l’action

Alors que les législateurs se réunissent pour la session de 2026, nous devrions les inciter à donner la priorité à des politiques d’IA centrées sur les étudiants qui mettent l’accent sur la sécurité, la transparence et le soutien aux éducateurs. Les préoccupations auxquelles sont confrontées les écoles vont bien au-delà du plagiat ou de la tricherie ; elles incluent la sécurité numérique, l’érosion des compétences en pensée critique (déchargement cognitif) et la préparation des jeunes à un avenir façonné par l’IA.

L’IA n’attend pas que nous rattrapions notre retard, et nos politiques ne devraient pas non plus le faire. Avec l’action fédérale limitée, les projecteurs sont braqués sur la Californie. Dans la quatrième plus grande économie du monde, le leadership n’est pas optionnel ; c’est une responsabilité, et notre jeunesse ne peut pas se permettre que les dirigeants de l’éducation restent sur la touche.

Scroll to Top