Une réflexion sur la régulation de l’IA
Les entreprises technologiques s’opposent systématiquement à la régulation de l’IA, utilisant les désaccords parmi les experts sur les risques de l’IA comme un prétexte contre sa mise en œuvre. Les optimistes, comme Dr Yann LeCun, responsable de la recherche en IA chez Meta, prédisent que l’IA apportera une prospérité et un progrès sans précédent. En revanche, les pessimistes comme Geoffrey Hinton, lauréat du prix Nobel ayant quitté Google en raison de préoccupations liées à la sécurité de l’IA, avertissent que cela représente une « menace existentielle pour l’humanité ».
Les préoccupations en matière de sécurité nationale concernant la capacité à lutter contre l’utilisation étrangère de l’IA compliquent davantage les efforts de régulation. D’après certains, plus d’innovation pourrait signifier plus de protection contre d’autres systèmes d’IA.
Une nouvelle guerre froide ?
On pourrait penser à cela comme une nouvelle sorte de guerre froide entre la Chine et les États-Unis. Cependant, au lieu des rivalités technologiques du XXe siècle, les deux États s’efforcent d’inventer le premier système d’intelligence artificielle générale (AGI). Bien que les dirigeants des deux pays puissent être préoccupés par les risques que l’AGI pose à l’humanité, la perspective que le premier système tombe entre de mauvaises mains est bien plus inquiétante que les conséquences de son développement.
Gagner la course à l’IA signifie établir les normes de ses caractéristiques, ainsi que des siècles de droits de vantardise. Cela modifie également l’équilibre des pouvoirs en faveur de celui qui gagne.
Les défis de la régulation
Un flux incessant de capitaux a été investi dans le développement de l’IA dans les deux pays. Arrêter le développement nuirait finalement à la croissance économique, ce qui est pratiquement inimaginable pour ces deux superpuissances économiques. La régulation est également difficile car la plupart des entreprises d’IA opèrent aux États-Unis, où chaque État édicte ses propres lois sur l’IA, créant des exigences réglementaires incohérentes.
Le gouverneur de Californie, Gavin Newsom, a récemment abordé certaines de ces lacunes en signant la loi Transparency in Frontier Artificial Intelligence Act (TFAIA) le 29 septembre 2025. Cette loi vise à renforcer les protections des lanceurs d’alerte contre l’IA et à obliger les entreprises générant plus de 500 millions USD de revenus annuels à rapporter comment elles considèrent les normes de sécurité fédérales et internationales dans leurs pratiques.
Une avancée, mais des lacunes
Malgré ces avancées, la loi manque de dispositions spécifiques pour la régulation de l’AGI, bien que l’AGI représente le risque le plus significatif pour la sécurité humaine. La législation omet plusieurs mesures critiques : plans d’intervention d’urgence en cas d’autonomie sans précédent de l’AGI, évaluations des risques obligatoires avant le déploiement des systèmes d’AGI et audits par des tiers pour garantir que les entreprises respectent les réglementations.
Ces mesures ont été identifiées comme des protocoles de sécurité essentiels par des experts et des universitaires de la communauté de l’IA.
Comparaison avec l’Europe
En revanche, la loi sur l’IA de l’UE, entrée en vigueur en 2024, est beaucoup plus complète et impose des exigences plus strictes. Contrairement à la loi de Californie, qui ne s’applique qu’aux entreprises générant plus de 500 millions USD par an, la loi de l’UE réglemente les systèmes d’IA de toutes tailles d’entreprise en fonction de la classification des risques.
Plus significativement, l’UE exige que les systèmes d’IA à haut risque subissent des évaluations de conformité par des tiers avant leur déploiement, tandis que la Californie ne demande que la divulgation des stratégies de mitigation des risques.
Les conséquences de l’inaction
Une régulation incohérente et inadéquate devient de plus en plus dangereuse. La menace que l’IA fait peser sur l’emploi augmente déjà. Le rapport Future of Jobs du World Economic Forum de 2025 affirme que pour chaque emploi que l’IA créera au cours de la prochaine décennie, elle menace tout autant, en particulier les « rôles d’entrée de gamme dans les bureaux ». Des personnes réelles subissent les conséquences déstabilisatrices de l’IA.
Les décideurs doivent désespérément établir des cadres juridiques qui restreignent le pouvoir des entreprises d’IA dans le développement et la mise en œuvre des systèmes d’IA sans une supervision adéquate.
Conclusion
Le manque de régulation adéquate de l’IA souligne une lacune réglementaire mondiale plus large : la difficulté de réglementer les multinationales. Pendant des décennies, de nombreuses entreprises multinationales ont opéré à travers les frontières avec le même pouvoir et capital que certains petits pays. Leur pouvoir politique rivalise avec celui d’immenses pouvoirs étatiques, en particulier aux États-Unis, où une grande partie de l’influence mondiale du pays dépend des entreprises technologiques.
Tenir les multinationales responsables deviendra de plus en plus critique à mesure que la course à l’AGI s’accélère. L’écart entre la responsabilité et l’application est le nexus fondamental pour maintenir la démocratie et avancer l’agence humaine.
