Réglementations nécessaires pour l’IA dans les décisions à haut risque à New York

Nouvelle Réglementation de l’IA à New York pour les Décisions à « Haut Risque »

ALBANY — Alors que l’intelligence artificielle (IA) est de plus en plus utilisée tant dans le secteur public que privé pour prendre des décisions importantes, les législateurs de New York cherchent à établir de nouvelles règles pour ces outils.

Contexte de la Réunion

Ce sujet a été abordé lors d’une audience tenue jeudi par la législature de l’État de New York, où des parties prenantes des syndicats et de l’industrie technologique ont exposé leurs points de vue.

« Au cours des dernières années, nous avons constaté une augmentation des rapports sur le déploiement de ces outils dans des contextes à haut risque », a déclaré la sénatrice d’État Kristen Gonzalez, présidente du Comité Internet et Technologie. « Lorsqu’ils ne fonctionnent pas comme prévu, de réels dommages peuvent survenir. »

Dangers Potentiels

Un des dangers est la possibilité que ces outils soient programmés de manière à entraîner, même involontairement, de la discrimination dans des domaines tels que l’emploi, le logement et les soins de santé.

Un autre impact réside dans leur utilisation sur le marché du travail. Mia McDonald, responsable des campagnes à Communication Workers of America, a noté que l’IA est déjà utilisée dans les centres d’appels pour surveiller et donner des retours sur le flux et le ton des appels, transcrire et résumer les appels, gérer des chatbots, recruter et embaucher.

Les techniciens de l’union sont surveillés à l’aide d’une combinaison d’IA et de GPS pour suivre leurs performances, et dans les hôpitaux, ces outils sont utilisés pour établir des diagnostics et déterminer si des services sont couverts par l’assurance santé des patients.

Exemples de Discrimination

Cette problématique dépasse le secteur privé. À New York, un outil d’IA a été formé pour prendre des décisions pour l’Administration des Services à l’Enfance, en utilisant des données datant de 10 ans. Odetty Tineo, directeur politique du syndicat DC37, a déclaré : « Ils utilisent des facteurs qui sont des indicateurs clairs de race et de statut socio-économique. »

« L’algorithme de l’ACS ne renforce pas le travail des travailleurs sociaux. Il sape leur expertise professionnelle avec un système biaisé. »

Proposition de Loi sur l’IA à New York

Ce type de discrimination, qu’elle soit intentionnelle ou non, est ce que Gonzalez souhaite aborder avec le New York AI Act, un projet de loi qu’elle parraine à la législature de l’État. Ce projet de loi exigerait des développeurs d’outils d’IA et des entités cherchant à les utiliser pour la prise de décision qu’ils prennent « des précautions raisonnables » pour prévenir la discrimination algorithmique dans les décisions à haut risque.

« Lorsque nous parlons d’un cas d’utilisation à haut risque, nous faisons référence à un outil qui prend une décision importante concernant la vie de quelqu’un, » a précisé Gonzalez, citant l’emploi et les soins de santé comme exemples.

Des audits réguliers de ces outils par des tiers indépendants seraient requis pour évaluer le risque potentiel de discrimination et la conformité avec les réglementations de l’État.

Le projet de loi obligerait également les entreprises à notifier lorsqu’un outil de décision automatisé est utilisé et à permettre aux individus de se retirer de ce processus, nécessitant ainsi qu’un humain effectue la tâche à la place.

Réactions de l’Industrie Technologique

Des représentants de l’industrie technologique ont témoigné contre le projet de loi, affirmant qu’il créerait un fardeau réglementaire, étoufferait l’innovation et empêcherait les petites entreprises et les ONG d’employer ces outils en raison des coûts associés à leur maintien.

Alex Spyropoulos, directeur des affaires gouvernementales pour Tech:NYC, a reconnu que l’utilisation de l’IA pouvait avoir des conséquences inattendues, mais a déclaré que la législation était probablement superflue.

« Nous avons déjà des lois anti-discrimination très solides dans l’État de New York, et nous suggérerions que le bureau du procureur général les examine, » a-t-il ajouté. « Nous pensons réellement qu’ils pourraient être habilités à s’attaquer à bon nombre de ces pratiques déjà. »

Spyropoulos et d’autres représentants de l’industrie ont exprimé leur préférence pour que le gouvernement fédéral crée un cadre national pour la réglementation de l’IA — une proposition qui n’a pas encore été examinée par le Congrès.

Autres Propositions de Loi

Parmi les autres projets de loi en discussion à la législature de l’État figurent le BOT Act, qui réglementerait la manière dont les employeurs surveillent les travailleurs utilisant l’IA, et le Fair News Act, qui établirait des règles sur l’utilisation de l’IA dans les organisations médiatiques.

Les législateurs auront jusqu’à la fin de la session législative prévue début juin pour examiner ces mesures.

Scroll to Top