Anthropic investit 20 millions de dollars dans un groupe plaidant pour des régulations de l’IA avant les élections de 2026
Anthropic, le laboratoire d’intelligence artificielle qui a récemment fait l’objet de critiques de la part de la Maison-Blanche pour son soutien aux régulations et à la sécurité, s’apprête à injecter 20 millions de dollars dans le domaine politique à l’approche des élections de 2026.
La société a annoncé jeudi qu’elle faisait un don à Public First Action, un groupe qui remet en question l’industrie de l’IA en soutenant des candidats de tous bords politiques. Ce groupe a récemment lancé des campagnes publicitaires à six chiffres pour soutenir les candidats favorables à la régulation de l’IA, notamment Marsha Blackburn du Tennessee et Pete Ricketts du Nebraska, tous deux républicains.
Les candidats clés
Blackburn, actuellement sénatrice des États-Unis et candidate au poste de gouverneur de son État, a dirigé des projets de loi sur la sécurité des enfants en ligne. Ricketts, qui se représente, a introduit cette année une législation visant à limiter la vente de puces avancées américaines à la Chine.
Public First Action est dirigé par d’anciens législateurs Brad Carson et Chris Stewart. Carson a déclaré à CNBC que le groupe vise à soutenir entre 30 et 50 candidats au cours de ce cycle et prévoit de collecter entre 50 et 75 millions de dollars.
Comparaison avec d’autres PAC
Cela reste bien en deçà des 125 millions de dollars déjà collectés par le PAC pro-IA Leading the Future, dont les donateurs incluent des investisseurs technologiques comme Andreessen Horowitz et le co-fondateur d’OpenAI Greg Brockman.
Carson a affirmé que l’opinion publique soutient leur initiative. Un sondage Gallup publié en septembre a révélé que 80 % des répondants souhaitaient des règles pour la sécurité de l’IA et la protection des données, même si cela implique de ralentir le développement de la technologie.
Régulation de l’IA et critiques
Carson a critiqué Leading the Future, l’accusant d’être guidé par trois milliardaires proches de Donald Trump ayant une vision particulière des régulations de l’IA. Il a souligné la nécessité d’une approche plus démocratiquement responsable.
Dans un billet de blog, Anthropic a déclaré que des politiques étaient nécessaires pour contrôler les risques tout en maintenant des garanties significatives, en favorisant la croissance de l’emploi, en protégeant les enfants et en exigeant une transparence réelle de la part des entreprises développant les modèles d’IA les plus puissants.
David Sacks, le “czar” de l’IA et des cryptomonnaies de Trump, a critiqué Anthropic en octobre après qu’un des co-fondateurs, Jack Clark, ait publié un essai intitulé “Optimisme technologique et peur appropriée”, suscitant un débat sur la régulation de l’IA.
Sacks a affirmé qu’Anthropic “met en œuvre une stratégie sophistiquée de capture réglementaire basée sur la peur”, en étant “principalement responsable de la frénésie réglementaire étatique qui nuit à l’écosystème des startups”.
Deux mois plus tard, le président Trump a signé un décret établissant un cadre réglementaire unique pour l’IA, affaiblissant le pouvoir des États individuels, notamment des États dirigés par des démocrates comme la Californie et New York.
