Offense vs. defense : pourquoi aucune des deux approches ne fonctionne pour la régulation de l’IA
Je n’oublierai jamais le match de playoffs entre les Seahawks et les 49ers en janvier 2014. C’était brutal. Des joueurs ont été évacués sur des civières. Les deux équipes ont tout donné sur le terrain, avec les Seahawks dominant comme la machine qu’ils avaient été toute la saison. Ce match m’a aidé à comprendre quelque chose que les fans de football savaient déjà : gagner ne consiste pas à choisir l’attaque ou la défense. Il s’agit de savoir quand adopter chaque approche.
La gouvernance de l’IA se dessine de la même manière.
Des initiatives pour une régulation de l’IA
La représentante de Pennsylvanie, Summer Lee, en partenariat avec ses collègues démocrates, a introduit l’Artificial Intelligence Civil Rights Act, qui, selon Technical.ly, « interdirait la discrimination algorithmique, exigerait des audits indépendants des systèmes à fort impact et donnerait aux gens le droit de choisir si un humain ou un algorithme prend des décisions importantes concernant leur vie. »
La régulation est souvent perçue comme un obstacle à l’innovation – mais que se passerait-il si elle pouvait être envisagée comme un tapis de protection qui, loin d’entraver les joueurs, est beaucoup plus doux que d’être plaqué au sol ?
Cette dernière poussée pour des garde-fous est importante à souligner car la plupart des tentatives de régulation – qu’il s’agisse d’arrêter la vengeance ou d’établir une supervision nationale similaire à celle de l’UE – sont des non-démarrages dans notre climat d’innovation de type cowboy.
Les biais et leurs conséquences
Une partie des biais dans l’espace de l’IA est intentionnelle, et d’autres résultent d’un travail négligé ou d’un malheureux accident. Dans la course à être le premier sur le marché, un travail moins approfondi a de réelles conséquences sur le terrain. La régulation est souvent présentée comme un obstacle à l’innovation – mais que se passerait-il si elle était considérée comme les règles du jeu ?
Jouer aux échecs ou au football avec un enfant peut être difficile si vous essayez de jouer selon les règles et qu’il préfère manger les pièces ou embrasser le ballon. Pourtant, quelle satisfaction d’avoir un jeu lorsque vous et votre adversaire respectez les mêmes règles ! Vous comprenez les paramètres et pouvez ajuster votre stratégie, votre endurance et votre créativité en conséquence.
Comparaison des approches : États-Unis vs Union Européenne
Les États-Unis ont fortement misé sur l’attaque. Le plan d’action de l’administration actuelle sur l’IA souligne la nécessité d’éliminer les barrières réglementaires pour « consolider notre position de leader mondial en IA ». En revanche, l’Union Européenne a adopté une approche basée sur le risque à travers l’EU AI Act, imposant des obligations claires aux fournisseurs de systèmes à haut risque.
Comme le résume l’équipe de politique européenne d’EY, « l’EU AI Act vise à garantir que les systèmes d’IA sont sûrs et respectent les droits et valeurs fondamentaux, tout en favorisant l’investissement et l’innovation. »
Les deux approches ont des conséquences. Des régulations plus strictes ont coûté des affaires à certaines entreprises de l’UE. En fait, près de 60 % des développeurs de l’UE et du Royaume-Uni signalent des retards de lancement, et plus d’un tiers est contraint de supprimer ou de réduire des fonctionnalités pour se conformer à la loi, selon l’organisation professionnelle ACT.
Un défi de leadership pour les régulateurs locaux
Le véritable défi de leadership, notamment pour des régions comme Pittsburgh, est d’apprendre à faire les deux en même temps. John Quigley, écrivain pour le Kleinman Center for Energy Policy, souligne à juste titre que « l’engouement autour de l’émergence de l’IA en Pennsylvanie manque d’équilibre. Au milieu des applaudissements pour l’innovation et l’investissement, des problèmes clés – climat, coût et impact sur la communauté – sont mis de côté. »
Pittsburgh et la Pennsylvanie disposent des talents, des capitaux et de la profondeur institutionnelle pour définir ce à quoi ressemble un leadership responsable en matière d’IA en pratique, mais seulement s’ils résistent au faux choix entre rapidité et protections.
La prochaine phase de l’IA (ici et à l’échelle mondiale) ne sera pas remportée par ceux qui avancent le plus vite, mais par ceux qui savent quand avancer et quand protéger les personnes sur le terrain.
