Anthropic investit 20 millions de dollars pour l’avenir de l’IA

Anthropic fait un don de 20 millions de dollars à Public First Action

L’IA apportera d’énormes bénéfices pour la science, la technologie, la médecine, la croissance économique et bien plus encore. Cependant, une technologie aussi puissante comporte également des risques considérables.

Les risques associés à l’IA

Ces risques peuvent provenir de l’utilisation abusive des modèles : l’IA est déjà exploitée pour automatiser les cyberattaques ; à l’avenir, elle pourrait faciliter la production d’armes dangereuses. D’autres risques proviennent des modèles eux-mêmes : les systèmes d’IA puissants peuvent agir de manière nuisible, contraires aux intentions — et hors du contrôle — de leurs utilisateurs.

Les modèles d’IA augmentent leurs capacités à un rythme effréné, passant de simples chatbots en 2023 aux « agents » d’aujourd’hui capables d’accomplir des tâches complexes. Chez Anthropic, nous avons dû redessiner à plusieurs reprises un test technique notoire pour le recrutement d’ingénieurs logiciels, alors que les modèles d’IA successifs réussissaient chaque version. Ce rythme de progrès ne se limite pas à l’ingénierie logicielle ; en effet, de nombreuses autres professions subissent déjà un impact.

Les décisions politiques nécessaires

Les décisions politiques que nous prendrons concernant l’IA dans les prochaines années toucheront presque tous les aspects de la vie publique, du marché du travail à la protection des enfants en ligne, en passant par la sûreté nationale et l’équilibre des pouvoirs entre nations. Dans de telles circonstances, nous avons besoin d’une bonne politique : une réglementation flexible qui nous permette de tirer parti des avantages de l’IA, tout en maintenant les risques sous contrôle et en gardant l’Amérique en tête de la course à l’IA.

Cela signifie garder les technologies critiques de l’IA hors de portée des adversaires de l’Amérique, maintenir des garanties significatives, promouvoir la croissance des emplois, protéger les enfants et exiger une transparence réelle de la part des entreprises développant les modèles d’IA les plus puissants.

Le soutien à Public First Action

Nous ne voulons pas rester en retrait pendant que ces politiques se développent. Pour cette raison, Anthropic contribue à hauteur de 20 millions de dollars à Public First Action, une nouvelle organisation bipartisane 501(c)(4) qui soutiendra l’éducation publique sur l’IA, promouvant des garanties et veillant à ce que l’Amérique mène la course à l’IA.

Des sondages récents révèlent que 69% des Américains pensent que le gouvernement « ne fait pas assez pour réglementer l’utilisation de l’IA ». Nous sommes d’accord. L’IA est adoptée plus rapidement que toute autre technologie de l’histoire, et la fenêtre pour obtenir une bonne politique se ferme. Pourtant, il n’existe actuellement aucune balise officielle et aucun cadre fédéral à l’horizon.

Les priorités de Public First Action

Public First Action travaille à combler ce vide. Fondée et dirigée par des stratèges républicains et démocrates, elle travaille de manière transpartisane pour soutenir des politiques de gouvernance de l’IA. L’organisation collaborera avec des républicains, des démocrates et des indépendants partageant les mêmes priorités politiques :

  • Insister sur des garanties de transparence des modèles d’IA qui donneront au public plus de visibilité sur la gestion des risques par les entreprises d’IA.
  • Soutenir un cadre de gouvernance fédérale solide pour l’IA — et s’opposer à la préemption des lois d’État, à moins que le Congrès n’adopte des garanties plus fortes.
  • Soutenir des contrôles d’exportation intelligents sur les puces d’IA pour garder l’Amérique en tête face à ses adversaires autoritaires.
  • Poursuivre une réglementation ciblée axée sur les risques les plus immédiats : les armes biologiques et les cyberattaques facilitées par l’IA.

Ces politiques ne sont pas partisanes. Elles ne visent pas à servir les intérêts d’Anthropic en tant que développeur d’IA — une gouvernance efficace de l’IA signifie plus de surveillance des entreprises comme la nôtre, et non moins. Elles ne chercheront pas non plus à freiner les développeurs plus petits ou moins bien dotés : notre avis est que la réglementation sur la transparence devrait s’appliquer uniquement aux entreprises développant les modèles d’IA les plus puissants (et les plus dangereux).

Les entreprises développant l’IA ont la responsabilité d’assurer que la technologie serve le bien public, et non seulement leurs propres intérêts. Notre contribution à Public First Action fait partie de notre engagement envers une gouvernance qui permet le potentiel transformateur de l’IA tout en gérant proportionnellement ses risques.

Scroll to Top