Anthropic s’engage à investir 20 millions de dollars pour contrecarrer la machine politique d’OpenAI
La bataille entre les entreprises d’intelligence artificielle (IA) dépasse désormais le cadre technologique pour s’immiscer directement dans la politique américaine. Anthropic a annoncé qu’il investirait 20 millions de dollars dans les élections de mi-mandat de cette saison.
Ces fonds seront destinés à Public First Action, un groupe nouvellement formé qui souhaite que les États conservent leur pouvoir d’écrire des règles concernant l’IA. Cette décision place Anthropic en opposition à l’opération politique d’OpenAI et à l’administration Trump, qui cherche à centraliser la régulation de l’IA au niveau fédéral.
Responsabilité des entreprises d’IA
Dans son annonce, Anthropic a déclaré : « Les entreprises qui développent l’IA ont la responsabilité de s’assurer que la technologie serve le bien public, et non uniquement leurs propres intérêts. »
Le groupe soutient des candidats qui défendent l’autorité des États sur la régulation de la technologie IA. Un des premiers bénéficiaires est Marsha Blackburn, républicaine candidate au poste de gouverneur du Tennessee, qui s’est opposée à des projets de loi fédéraux visant à restreindre les législatures d’État dans leur capacité à adopter leurs propres lois sur l’IA.
Confrontation avec OpenAI
Public First Action fait face à des défis considérables de la part de Leading the Future, un groupe opposé soutenu par le président d’OpenAI, Greg Brockman, et l’investisseur technologique Marc Andreessen. Ce dernier a levé 125 millions de dollars depuis le lancement de ce groupe en août 2025.
La société d’Andreessen, A16Z, détient une participation dans OpenAI, rendant la bataille de financements d’autant plus personnelle entre ces leaders rivaux dans le développement de l’IA.
Ordre exécutif de Trump
L’ordre exécutif signé par le président Trump en décembre a intensifié cette lutte. Cette directive menace directement les lois des États que souhaite protéger Anthropic. Elle demande aux agences fédérales d’élaborer un cadre national pour l’IA avec des règles minimales, destiné à supplanter les réglementations plus strictes des États.
La directive va plus loin en créant un groupe de travail au sein du ministère de la Justice chargé de contester devant les tribunaux les lois des États sur l’IA. Les États jugés trop stricts par l’administration Trump pourraient même perdre des financements fédéraux.
Régulations des États en 2026
Plusieurs États ont des réglementations en préparation ou qui entreront en vigueur en 2026. Le Colorado a repoussé son Acte sur l’IA au 30 juin 2026 après des pressions, mais cette loi exigera que les entreprises développant des systèmes d’IA « à haut risque » préviennent la discrimination dans leurs algorithmes.
La Californie a adopté sept lois sur l’IA en 2025, dont une loi sur la transparence de l’IA avancée applicable à partir du 1er janvier 2026. Le Texas a interdit l’utilisation de l’IA à certaines fins via sa loi sur la gouvernance responsable de l’IA.
Fossé idéologique et guerre des dépenses
Le blog d’Anthropic a critiqué implicitement OpenAI, avertissant que « d’énormes ressources ont afflué vers des organisations politiques qui s’opposent » aux efforts pour rendre l’IA plus sûre.
Si les candidats soutenus par Public First Action remportent suffisamment de sièges, ils pourraient bloquer les propositions de loi fédérales visant à imposer une réglementation uniforme, privilégiant ainsi une approche étatique temporaire.
La rivalité entre Anthropic et OpenAI dépasse les enjeux financiers. Fondée par les frères et sœurs Dario et Daniela Amodei après leur départ d’OpenAI en raison de préoccupations liées à la sécurité, Anthropic construit son identité autour de la réduction des risques liés à la technologie IA.
OpenAI et ses soutiens préfèrent des règles plus souples favorisant une innovation rapide, un clivage philosophique qui se manifeste désormais dans les contributions politiques et le lobbying.
Les électeurs des États ayant adopté des lois sur l’IA devront choisir cet automne entre ces visions divergentes, déterminant ainsi si le développement de l’IA suivra une mosaïque d’approches étatiques ou une régulation fédérale uniforme plus permissive.
