Les avertissements des critiques sur la stratégie IA des États-Unis
L’administration Trump a fait de la domination américaine en matière d’intelligence artificielle une priorité nationale. Cependant, certains critiques affirment qu’une approche peu restrictive en matière de réglementation de la sécurité et de la sûreté des modèles américains rend plus difficile la promotion de leur adoption dans d’autres pays.
Un changement de cap
Depuis leur entrée en fonction, les responsables de la Maison Blanche ont indiqué que Trump entendait s’éloigner de l’emphase de l’ancien président Joe Biden sur la sécurité de l’IA. Ils privilégient plutôt la vitesse et la capacité, permettant aux entreprises américaines de tester et d’améliorer leurs modèles avec une réglementation minimale.
Cependant, cela laisse d’autres parties prenantes, y compris les entreprises américaines, à définir elles-mêmes les règles du jeu.
La nécessité de la gouvernance
Camille Stewart Gloster, ancienne directrice adjointe de la cybersécurité nationale sous l’administration Biden, gère désormais sa propre entreprise de conseil en cybersécurité. Elle souligne que certaines entreprises reconnaissent que la sécurité est synonyme de performance.
Cela implique de mettre en place des gouvernances et des garde-fous pour que l’IA se comporte comme prévu, que l’accès soit strictement contrôlé et que les entrées et sorties soient surveillées pour détecter toute activité dangereuse ou malveillante.
Les risques d’une précipitation
Stewart Gloster a observé que certaines organisations mettent involontairement les utilisateurs en danger en accordant trop de pouvoir aux agents IA et en manquant de supervision, entraînant des résultats désastreux. Un exemple est une entreprise qu’elle a conseillée, qui “effectivement DDoSait ses clients” avec un agent IA, inondant les utilisateurs de notifications au point de les frustrer sans possibilité d’arrêter l’agent.
Les préoccupations face à la réglementation
L’administration Trump et les républicains au Congrès ont fait du leadership mondial en IA une priorité nationale. Ils soutiennent que de nouvelles réglementations pour l’industrie de l’IA en pleine expansion nuiraient à l’innovation et rendraient les entreprises technologiques américaines moins compétitives.
Cependant, des inquiétudes émergent quant à la capacité des États-Unis à maintenir leur position. Michael Daniel, ancien coordinateur de la cybersécurité à la Maison Blanche sous Obama, a déclaré que la réglementation sur l’IA aux États-Unis reste terriblement insuffisante pour une adoption généralisée dans d’autres régions du monde, comme en Europe, où les normes de sécurité et de sûreté pour les modèles commerciaux d’IA sont souvent plus élevées.
Un appel à l’action
“Si nous n’agissons pas ici aux États-Unis, nous pourrions nous retrouver… forcés de jouer les suiveurs, car personne ne nous attendra”, a déclaré Daniel. “Et je dirais que la géopolitique rend cela encore moins probable, rendant plus probable que d’autres avancent plus rapidement et plus efficacement que les États-Unis.”
Exemple récent de controverse
Un exemple récent est l’enquête en cours sur xAI d’Elon Musk, suite à la génération de millions de deepfakes non consensuels et de contenus sexuels inappropriés par son outil IA, Grok. Plusieurs pays ont menacé d’interdire ou de restreindre l’utilisation de X et Grok en raison de cet incident.
Les enjeux juridiques
Stewart Gloster a mentionné qu’en l’absence de direction ou de réglementation de la part du gouvernement fédéral, l’industrie doit établir des règles pour garantir la sécurité et la fiabilité de manière autonome, en partenariat avec d’autres régulateurs.
Il est probable que la responsabilité légale des développeurs IA, des organisations et des individus concernant les échecs de sécurité et de confidentialité se façonne à travers des procès et le système judiciaire. “Ce n’est probablement pas la manière dont nous souhaitons que cela se produise, car de mauvaises affaires font de mauvaises lois”, a-t-elle déclaré.
