Réforme de la loi sur l’IA du Colorado : vers une transparence accrue

Loi sur l’IA du Colorado : Vers une transparence accrue sous la réécriture du Gouverneur Polis

Le Colorado envisage de réformer sa loi sur le biais des décisions en matière d’IA de 2024 afin de supprimer les exigences d’audit et de se concentrer sur les avis de transparence, selon un cadre législatif soutenu par le Gouverneur Jared Polis.

Contexte et soutien

Polis a affirmé que la proposition avait reçu un soutien unanime d’un groupe d’intervenants de l’industrie technologique et de défenseurs des consommateurs convoqués l’année dernière pour étudier la législation et formuler des recommandations.

Impact sur les entreprises

Les entreprises utilisant des outils d’intelligence artificielle (IA) pour le recrutement et l’embauche ont attentivement observé comment les législateurs pourraient modifier cette loi, qui était la réglementation sur le biais de l’IA la plus complète de son genre lors de son adoption initiale. Le Président Donald Trump cherche à décourager les États d’imposer des réglementations strictes sur les technologies de l’IA, comme en témoigne un décret exécutif de décembre qui appelle à limiter leur accès aux fonds fédéraux et à contester certaines lois étatiques devant les tribunaux.

Modifications proposées

La législature de l’État a choisi de reporter la révision de la loi lors d’une session spéciale en 2025, optant pour retarder sa date d’entrée en vigueur au 30 juin 2026. Si les révisions de Polis sont adoptées, la date d’entrée en vigueur sera repoussée au 1er janvier 2027.

La proposition du Gouverneur effacerait les exigences détaillées en matière d’audits de biais, mais conserverait une version des exigences de transparence de la loi. Par exemple, les employeurs seraient tenus d’informer les candidats à l’emploi dès le départ s’ils utilisent des outils d’IA pour aider aux décisions d’embauche.

Droits des candidats

Les candidats à l’emploi qui sont rejetés auraient droit à une notification supplémentaire concernant les types de données que les outils d’IA ont pris en compte dans leur recommandation, la possibilité de corriger des informations personnelles inexactes, ainsi que la possibilité de demander un examen humain de la décision “dans la mesure du commercialement raisonnable”.

Exigences similaires

Des exigences similaires s’appliqueraient aux organisations utilisant des outils automatisés pour aider dans des décisions “conséquentes” concernant le logement, le crédit, l’éducation, et d’autres domaines.

Scroll to Top