Régulation de l’IA aux États-Unis : Comprendre la conformité de l’IA dans le développement logiciel
Le 16 mai 2023, Sam Altman a témoigné devant le Congrès, affirmant qu’il est temps pour les régulateurs de fixer des limites aux systèmes d’IA. « Si cette technologie tourne mal, cela peut mal tourner », a-t-il déclaré, affirmant qu’elle pourrait causer des « dommages significatifs au monde ». Ses propos ont trouvé un écho chez les législateurs qui considèrent que l’implication gouvernementale est cruciale pour atténuer les risques.
Un sujet qui était considéré comme une faible priorité il y a plus d’un an, les gouvernements discutent désormais intensément de la nécessité de réglementer l’IA aux États-Unis, laissant les entreprises dans un état d’incertitude quant à leurs priorités.
En août 2024, le projet de loi SB 1047 de la Californie, révolutionnaire mais controversé, visant à prévenir les catastrophes liées à l’IA avant qu’elles ne surviennent, a été adopté par la législature et est maintenant en attente d’approbation finale par l’État. Ce projet de loi exige des entreprises d’IA en Californie qu’elles mettent en œuvre des mesures de sécurité avant de former des modèles d’IA avancés, telles que garantir la capacité d’éteindre rapidement les modèles, se protéger contre des modifications non sécurisées et tester les risques catastrophiques potentiels.
L’adoption croissante de l’IA dans divers secteurs, les avertissements de Sam Altman, Steve Wozniak et Elon Musk, l’adoption du projet de loi SB 1047 ainsi que le nombre croissant de poursuites contre l’IA, l’apprentissage automatique et l’IA générative soulignent la nécessité de réglementations plus strictes sur l’IA aux États-Unis.
L’histoire de la régulation de l’IA aux États-Unis à travers les administrations
Au fil des années, plusieurs réglementations sur l’intelligence artificielle ont été émises par la Maison Blanche, la Federal Trade Commission, le National Institute of Standards and Technology, le Congrès et le Bureau de protection financière des consommateurs. Analyser comment les différentes administrations ont abordé la conformité réglementaire de l’IA permet de mieux comprendre le cadre juridique.
Administration Obama
Les premiers exemples de conformité réglementaire fédérale en matière d’intelligence artificielle ont été esquissés par l’administration du président Barack Obama, dans un rapport public intitulé « Préparer l’avenir de l’intelligence artificielle », publié par le National Science and Technology Council en octobre 2016. Ce rapport détaillait l’utilisation de l’IA dans l’économie et le gouvernement fédéral, tout en abordant les questions de justice, de gouvernance, de sécurité et de sécurité mondiale.
Administration Trump
Un autre développement clé s’est produit lorsque le président Donald Trump a signé le décret exécutif 13859, intitulé « Maintenir le leadership américain en intelligence artificielle », en février 2019. Cette politique a lancé l’initiative américaine en matière d’IA, aboutissant à l’émission de normes techniques et d’orientations encadrant la législation sur l’IA dans les années suivantes.
Administration Biden
Un jalon a été atteint en octobre 2022 avec le « Blueprint for an AI Bill of Rights : Making Automated Systems Work for the American People », émis par le Bureau de la politique scientifique et technologique de la Maison Blanche. Ce document établit cinq principes pour « guider la conception, l’utilisation et le déploiement des systèmes automatisés afin de protéger le public américain à l’ère de l’IA ».
En février 2023, le président Biden a signé un décret exécutif visant à avancer l’équité raciale et à soutenir les communautés mal desservies par le gouvernement fédéral, demandant aux agences d’éliminer les biais dans les nouvelles technologies, y compris l’IA, et de protéger contre la discrimination algorithmique.
Le 30 octobre 2023, le président Biden a signé le décret exécutif 14110, visant à « exploiter l’IA pour le bien et réaliser ses nombreux avantages » tout en « atténuant ses risques substantiels ». L’ordre couvre huit domaines clés :
- Sécurité et sûreté
- Innovation et concurrence
- Soutien aux travailleurs
- Biais de l’IA et droits civils
- Protection des consommateurs
- Confidentialité
- Utilisation fédérale de l’IA
- Leadership international
Le Bill of Rights de l’IA : À prendre en compte lors du développement de l’IA
Créé par le Bureau de la politique scientifique et technologique (OSTP) pour répondre à la demande de réglementation plus stricte, le Bill of Rights de l’IA propose des approches pour rendre l’IA transparente, plus sûre et moins discriminatoire. Il examine aussi les droits civils dans des domaines comme l’éducation, l’emploi, les soins de santé, l’accès aux services financiers et la surveillance commerciale.
Systèmes efficaces et sûrs
Le principe stipule que tout le monde mérite d’être protégé contre des systèmes automatisés non sécurisés et inefficaces. Pour assurer cela, un groupe diversifié d’experts et de parties indépendantes doit être impliqué dans le développement. Ces systèmes doivent subir des tests avant déploiement, des évaluations des risques, une atténuation ainsi qu’un suivi continu pour garantir la conformité.
Discrimination algorithmique
La discrimination algorithmique survient lorsque certaines personnes sont traitées défavorablement en raison de données d’entraînement biaisées. Le principe recommande des mesures proactives et continues pour garantir l’équité dans l’utilisation des systèmes IA.
Confidentialité des données
Chaque individu doit contrôler les données qu’il génère et la manière dont elles sont utilisées. Les concepteurs doivent demander clairement la permission d’utiliser ces données et respecter les souhaits des utilisateurs.
Avis et explications
Il est essentiel d’informer les utilisateurs lorsqu’un système IA est utilisé d’une manière pouvant les affecter, expliquant son fonctionnement, le rôle de l’automatisation et les décisions prises « dans un langage simple et facile à comprendre ».
Alternatives humaines
Les utilisateurs doivent pouvoir choisir une alternative humaine lorsque cela est approprié et disposer d’un accès rapide si l’IA échoue ou produit un résultat contestable. Ce processus doit être accessible, équitable, efficace, correctement maintenu et accompagné d’une formation adéquate.
L’Ordre Exécutif : 7 actions clés à garantir lors du développement de l’IA
L’Ordre Exécutif impose sept actions clés pour garantir un développement responsable, éthique et sécurisé de l’IA :
Nouveaux standards pour la sécurité et la sûreté de l’IA
Avec les capacités croissantes de l’IA, les risques augmentent. Le cadre réglementaire vise à protéger contre ces risques :
- Les développeurs doivent partager les résultats de sécurité et informations critiques avec le gouvernement.
- Élaborer des outils, normes et tests garantissant que les systèmes sont sûrs, sécurisés et dignes de confiance.
- Protéger contre l’utilisation de l’IA pour concevoir du contenu biologique dangereux.
- Établir des normes et bonnes pratiques pour détecter les contenus générés par l’IA visant à tromper ou frauder.
- Maintenir un plan de cybersécurité pour développer des outils capables d’identifier et corriger les vulnérabilités.
Protection de la vie privée des Américains
Sans réglementation adéquate, la vie privée est menacée par l’exploitation des données personnelles :
- Prioriser le soutien fédéral pour la création et l’usage de techniques de protection de la vie privée.
- Renforcer les technologies et recherches visant à préserver la vie privée.
- Évaluer comment les agences collectent et utilisent les données commerciales disponibles.
- Élaborer des lignes directrices pour mesurer l’efficacité des protections de la vie privée.
Avancement des droits civils et de l’équité
L’IA irresponsable peut aggraver les biais et discriminations en santé, justice et logement. Pour y remédier :
- Fournir un mentorat clair aux programmes fédéraux, propriétaires et entrepreneurs.
- Résoudre la discrimination algorithmique.
- Maintenir l’équité dans la justice pénale.
Défense des patients, clients et étudiants
Bien que l’IA puisse améliorer les produits, elle augmente aussi les risques de tromperie et préjudice :
- Construire et promouvoir une utilisation responsable et explicable de l’IA.
- Créer un écosystème pour façonner le potentiel de l’IA dans l’éducation.
Soutenir les travailleurs
L’IA transforme les lieux de travail en promettant une meilleure productivité tout en posant des défis :
- Élaborer des pratiques pour éliminer les préjudices et maximiser les bénéfices pour les travailleurs.
- Produire un rapport sur les impacts possibles de l’IA sur le marché du travail.
Promouvoir la concurrence et l’innovation
L’Amérique doit rester leader à travers :
- Des recherches sur l’IA à travers le pays.
- Un écosystème IA ouvert, équitable et compétitif.
- L’utilisation des autorités pour élargir les capacités des talents qualifiés, qu’ils soient immigrants ou non.
Utilisation efficace et responsable de l’IA par le gouvernement
L’IA peut améliorer les services publics en :
- Aidant les agences à acquérir des services et produits IA spécifiques.
- Accélérant le recrutement de professionnels de l’IA.
- Émettant des orientations pour l’usage de l’IA par les agences.
Que peuvent faire les entreprises pour se préparer à la conformité de l’IA dans le développement logiciel ?
Spécialistes de la conformité réglementaire et du développement IA, les experts disposent du savoir-faire technique et commercial pour vous accompagner.
Bien que la réglementation évolue au niveau étatique, fédéral et international, certaines approches sont communes et utiles pour préparer la conformité aux futures normes américaines.
Connaître le modèle d’IA
Quelle part des décisions repose sur l’IA ? Les entreprises doivent cartographier et évaluer ces dépendances pour répondre aux attentes des conseils, directions et régulateurs.
Mettre en place les bases de l’adoption de l’IA
Il convient d’établir des politiques encadrant l’usage de l’IA, reposant sur le suivi, l’intégrité des données, la transparence, l’exactitude, les risques et impacts sociaux.
Concevoir des structures de responsabilité
Avec l’intégration croissante de l’IA, une fonction de conformité dédiée doit être créée pour gérer les politiques d’IA à l’échelle de l’organisation.
Évaluations des risques
Avant de déployer un nouveau modèle d’IA, une évaluation des risques et une analyse coût-bénéfice sont essentielles. Les risques identifiés doivent être contrôlés contractuellement, techniquement et organisationnellement.
La Colorado Artificial Intelligence Act (CAIA), en vigueur en février 2026, impose des obligations strictes aux développeurs et déployeurs de systèmes à haut risque, demandant diligence raisonnable pour prévenir la discrimination algorithmique dans l’éducation, l’emploi, les services financiers et la santé, avec des évaluations annuelles et transparence.
Communiquer
Les entreprises doivent comprendre les mécanismes de leurs systèmes IA pour expliquer clairement la logique de leurs décisions, accompagnées d’un suivi rigoureux démontrant l’absence de résultats disparates.
Conclusion
La réglementation IA peut sembler difficile, surtout avec des lois en développement et hétérogènes. Cet article vise à éclairer les régulations principales fédérales aux États-Unis et à encourager l’adoption de pratiques conformes.
Selon un rapport du Wall Street Journal, plus de 27 % des entreprises du Fortune 500 s’inquiètent des réglementations IA affectant leurs opérations, anticipant des défis juridiques, des coûts de conformité et une disruption de l’innovation.
Alors que la législation prend de l’ampleur aux États-Unis et dans le monde, il est crucial pour les entreprises de s’associer à des consultants et prestataires, tels qu’Appinventiv, qui maîtrisent ce paysage évolutif et peuvent aider à se préparer à une supervision plus stricte.
