Réglementer l’IA en Géorgie pour un avenir équitable

La Géorgie doit réguler l’IA dans l’intérêt public pour prospérer à l’ère moderne

En tant qu’anthropologue culturel, j’ai passé l’année dernière à examiner ce que signifie pour les travailleurs d’Atlanta d’être perçus comme « littéraires en IA ». J’ai constaté de première main comment l’incertitude autour de l’objectif de « littératie en IA » a freiné le progrès dans le développement de systèmes et de politiques qui protègent les travailleurs et les communautés.

Chaque événement axé sur l’intelligence artificielle (IA) auquel j’ai assisté a fait écho à la promesse que la Géorgie peut mener la nation dans l’adoption de l’IA. Sur le papier, l’État est bien positionné pour le faire : Georgia Tech héberge plusieurs instituts de la National Science Foundation (NSF) et un réseau croissant de partenariats public-privé est désireux de marquer la région métropolitaine d’Atlanta comme un hub de l’IA.

Cependant, derrière cet optimisme, j’ai entendu des responsables publics exprimer une inquiétude quant aux risques d’adopter l’IA sans un cadre clair de surveillance ou de responsabilité. Et ils ont raison d’être préoccupés.

Trois défis qui entravent l’implémentation de la littératie en IA

Le premier est l’infrastructure publique inégale. À travers la ville, l’accès aux outils nécessaires pour participer à une économie pilotée par l’IA est inégal. Lors de mes entretiens avec des experts, j’ai appris que la croissance du secteur technologique d’Atlanta dépasse l’investissement public dans les services de base. L’internet fonctionne plus lentement dans les quartiers noirs que dans des quartiers comme Buckhead ou Midtown.

Il s’agit d’un échec plus large dans la manière dont l’investissement public fonctionne, rappelant les débuts de l’internet lorsque l’accès généralisé a permis à plus de personnes d’explorer et de découvrir sa valeur. Sans investissements et politiques concrètes du secteur public garantissant l’accès, l’équité et les opportunités dans l’écosystème technologique, l’IA risque de renforcer les disparités existantes entre les communautés — au profit de ceux qui sont déjà privilégiés.

Le deuxième défi est la capacité limitée du gouvernement. Bien que le secteur public ait la responsabilité de réguler l’IA, les agences déjà sous-dotées et surchargées manquent de personnel, de financement et d’expertise technique pour le faire efficacement. Un ancien fonctionnaire gouvernemental, maintenant dans une startup d’IA, a mentionné une contrainte structurelle dans l’innovation du secteur public, notant qu’il n’y a pas de budget de R&D, contrairement aux entreprises privées comme Apple ou Google qui peuvent consacrer une part importante de leurs dépenses à développer de nouveaux produits et services.

Sans les ressources pour innover en interne, les agences gouvernementales sont largement réactives, incapables de fixer des normes ou d’appliquer des responsabilités dans l’adoption de l’IA alors que les entreprises privées avancent pour définir les termes de l’innovation avec peu de supervision et une responsabilité limitée. Au lieu de simplement réagir aux tendances du marché ou d’exhorter les travailleurs à « suivre le rythme » avec l’IA, les institutions étatiques et locales doivent établir des normes de qualité de travail ainsi que d’équité raciale, appliquer des protections contre la discrimination, et exiger de la transparence et de la responsabilité dans le déploiement de l’IA.

Enfin, il existe des lacunes réglementaires et une incertitude quant à l’application. La législation actuelle liée à l’IA en Géorgie est étroite dans son champ d’application. Des mesures telles que le House Bill 147 se concentrent principalement sur l’utilisation de l’IA au sein des agences gouvernementales, plutôt que d’aborder comment les employeurs privés déploient l’IA dans les décisions d’embauche, d’évaluation et de licenciement. En conséquence, certaines des utilisations les plus conséquentes de l’IA sur le marché du travail restent largement non régulées au niveau de l’État.

Des pénalités claires et des mécanismes d’application sont essentiels

La sénatrice de l’État, Nikki Merritt (D-Grayson), qui parraine le Senate Bill 761 (SB167), l’une des premières lois de responsabilité en IA de la Géorgie, a partagé plus d’informations sur les lacunes réglementaires de l’État. Introduit au Sénat de l’État de Géorgie en février 2025, le SB167 propose un cadre pour le déploiement responsable de l’IA par des entités privées et des protections contre la discrimination algorithmique dans des décisions essentielles concernant l’emploi, le logement et le crédit.

La sénatrice Merritt m’a informé que des lobbyistes l’avaient submergée après l’audience du projet de loi pour s’interroger sur qui en assurerait l’application. Selon la loi géorgienne, l’application de cette législation incomberait au procureur général de l’État, tout comme c’est le cas au niveau fédéral. Dans notre conversation, elle a reconnu que les détails des pénalités, des mécanismes de rapport et des seuils de violations devront être clarifiés pour que le projet de loi ait l’effet escompté, surtout face à l’opposition de l’industrie aux efforts de régulation de l’IA.

Sans pénalités claires, mécanismes d’application et seuils, toute réglementation de l’IA au niveau de l’État risque d’être plus aspirationnelle que actionnable. Au niveau national, ce vide réglementaire expose les communautés noires, à faible revenu et rurales à des risques disproportionnés. Même avant l’explosion de l’IA, la politique publique échouait à garantir les protections du travail, les mandats d’équité, ou les systèmes de soutien tels que la garde d’enfants, le transport et l’accès numérique dont ces communautés ont besoin pour maintenir un travail stable et digne.

Les responsables publics font maintenant face à un choix déterminant : investir dans des infrastructures publiques, des cadres réglementaires et des mécanismes d’application qui protègent les travailleurs – ou laisser les inégalités alimentées par l’IA se durcir. Les Géorgiens méritent plus qu’une rhétorique aspirationnelle. Ils méritent des réglementations sur l’IA qui les protègent des dommages et du déplacement, plutôt que de sacrifier leur bien-être pour accélérer l’adoption.

Scroll to Top