Colorado : Révision de sa Loi Pionnière sur l’IA Suite aux Réactions de l’Industrie
Les législateurs du Colorado se préparent à réviser l’une des premières lois complètes sur l’intelligence artificielle (IA) aux États-Unis, suite à des mois de tensions entre les régulateurs, les défenseurs des consommateurs et l’industrie technologique.
Cadre Politique Révisé
Un cadre politique récemment publié décrit comment l’État pourrait ajuster sa loi sur l’IA de 2024 avant que son application ne commence plus tard cette année.
Au cœur de cet effort se trouve un défi pratique : comment réguler les systèmes d’IA déjà en usage dans des domaines tels que le recrutement, le logement, le prêt et les services gouvernementaux, sans rendre leur déploiement trop difficile ou coûteux.
Pourquoi la Loi est-elle Révisée ?
Lorsque le Colorado a adopté sa loi sur l’IA en 2024, cela a attiré l’attention nationale pour son approche précoce et complète.
La loi se concentrait sur les systèmes d’IA “à haut risque”, tels que :
- Candidatures d’emploi
- Accès au logement
- Décisions financières
- Services gouvernementaux
Elle a introduit des exigences visant à prévenir la discrimination algorithmique et à accroître la responsabilité.
Cependant, peu après, les entreprises ont exprimé des préoccupations. Les exigences étaient jugées trop larges, trop complexes et pourraient augmenter considérablement le coût d’utilisation des systèmes d’IA. En réponse, l’État a retardé l’application et formé un groupe de travail pour réviser l’approche.
Modifications Proposées
Le cadre mis à jour reflète une tentative de trouver un juste milieu. Au lieu d’imposer une responsabilité stricte et unilatérale, la proposition introduit un modèle de responsabilité plus partagé.
Les développeurs seraient tenus de :
- Divulguer le fonctionnement de leurs systèmes
- Fournir des informations sur les sources de données et leurs limitations
Les organisations seraient attendues à :
- Informer les individus lorsque l’IA est utilisée dans les décisions
- Utiliser un langage clair et simple lors de cette information
Ceci représente un changement par rapport à la structure originale, où la responsabilité était davantage concentrée.
Nouvelle Approche en Matière de Responsabilité
Un des changements les plus importants concerne la responsabilité.
La loi originale soulevait des préoccupations car elle pouvait imposer une grande part de responsabilité à une seule partie, même lorsque plusieurs acteurs étaient impliqués dans le développement et l’utilisation d’un système d’IA.
Le cadre révisé adopte une approche différente.
La responsabilité serait désormais assignée en fonction des actions :
- Les développeurs seraient responsables de la construction des systèmes
- Les déployeurs seraient responsables de leur utilisation
Cela reflète une vision plus réaliste de l’opération de l’IA en pratique.
Le Débat en Cours : Protection vs. Praticité
Malgré ces révisions, l’issue n’est pas certaine. Certains législateurs ont déjà indiqué que la proposition n’est qu’un point de départ, et d’autres modifications sont probables au fur et à mesure qu’elle progresse dans le processus législatif.
La tension plus large demeure.
D’un côté :
- Protection des consommateurs
- Prévention de la discrimination
- Augmentation de la transparence
De l’autre :
- Coût de la conformité
- Impact sur l’innovation
- Capacité pratique à déployer des systèmes d’IA
Le Colorado tente désormais d’équilibrer les deux.
Implications Pratiques
Pour les organisations, la leçon à retenir est moins une loi spécifique que la direction générale. Les systèmes d’IA sont de plus en plus traités comme d’autres processus commerciaux réglementés. Cela signifie que les attentes concernant :
- Divulgation
- Documentation
- Responsabilité
- Surveillance
deviendront une partie intégrante de l’évaluation de ces systèmes. En même temps, les régulateurs continuent de travailler sur la façon d’appliquer ces attentes de manière réalisable.
