Bannir la Réglementation de l’IA : Un Désastre en Perspective
Le lundi, des annonces ont été faites concernant un ordre exécutif visant à interdire aux États de réguler l’IA. L’argument avancé est que l’attente de multiples approbations nuirait à l’innovation. Pourtant, les véritables vulnérabilités en matière de sécurité nationale découlent d’un manque de réglementation.
Les Véritables Risques de l’IA
Les systèmes d’IA soutiennent des fonctions essentielles au sein de notre économie et de notre sécurité nationale, tels que le routage aéroportuaire, la prévision de la consommation énergétique, et l’intégration de données sur le champ de bataille. Ces systèmes, bien qu’efficaces, présentent également des points de défaillance concentrés et à fort impact.
Chaque point vulnérable est une cible attrayante pour des adversaires. Par exemple, lorsque des infrastructures critiques reposent sur des algorithmes opaques, une seule sortie manipulée peut entraîner des conséquences catastrophiques, comme la coupure d’électricité dans une région entière ou la déstabilisation des marchés financiers.
Manipulation et Cyberattaques
Des acteurs hostiles exploitent déjà des tactiques telles que l’empoisonnement de données et l’incitation à des comportements dangereux. Des rapports d’intelligence américaine indiquent que des pays comme la Chine, la Russie, et la Corée du Nord investissent massivement dans le vol de modèles et la pénétration ciblée des pipelines de développement de l’IA.
Les campagnes de désinformation soutenues par l’IA sont également en forte augmentation, visant à déstabiliser les élections et à miner la confiance civique. En 2024, plus de 160 narrations fausses ont été diffusées auprès des Américains, souvent renforcées par des vidéos et des audios synthétiques convaincants.
Les Problèmes de la Réglementation
Malgré ces menaces croissantes, de grandes entreprises technologiques dépensent des sommes considérables pour éviter ou renverser les protections nécessaires. Leur stratégie consiste à obtenir une préemption fédérale qui immobilise les États, tout en retardant la réglementation significative au niveau fédéral.
Cette approche est tragiquement myope. En réalité, une réglementation claire pourrait favoriser l’innovation en renforçant les systèmes, en réduisant les abus, et en garantissant que les modèles intégrés dans les systèmes de défense soient robustes et sécuritaires avant leur déploiement.
Laboratoires de Politique
Les États demeurent les laboratoires les plus efficaces pour développer et affiner les politiques relatives aux technologies complexes. Alors que le Congrès peine à établir un cadre réglementaire, les États expérimentent des approches, débattent de politiques et produisent des preuves concrètes plus rapidement.
Conclusion
La solution aux risques de l’IA ne réside pas dans la suppression de la réglementation, mais dans la conception d’une réglementation adéquate. Le leadership américain en matière d’intelligence artificielle ne sera sécurisé qu’en établissant des règles solides capables de résister à de véritables adversaires. Les États-Unis ne devraient pas être dissuadés de protéger leur propre avenir.
