Opinion : L’IA avance plus vite que nos lois. L’Alaska doit prêter attention
Parmi les politiques de déréglementation du président Trump, ses efforts pour réduire la surveillance de l’intelligence artificielle (IA) sont parmi les moins reconnus mais potentiellement les plus conséquents. Bien que ses actions visant à affaiblir les protections environnementales, de santé et des droits civiques attirent davantage l’attention, sa volonté de déréguler l’IA pourrait s’avérer beaucoup plus dommageable dans les décennies à venir.
Trump a notamment annulé le « Blueprint for an AI Bill of Rights » de l’administration précédente, conçu pour « guider le développement et le déploiement de l’IA de manière à protéger les droits du public américain ». Au lieu de cela, il a émis un ordre exécutif pour accélérer le développement de l’IA en supprimant des dispositions clés de régulation et de surveillance. Son projet de « Big Beautiful Bill » incluait même un moratoire de dix ans sur les réglementations étatiques et locales concernant l’IA.
Bien que la Chambre ait soutenu cette mesure, le Sénat ne l’a pas fait, laissant des États comme l’Alaska libres de réguler l’utilisation de l’IA à l’échelle locale. Cependant, en décembre, Trump a émis un autre ordre exécutif interdisant une telle régulation. Il est donc crucial de demander à notre délégation au Congrès de travailler à la restauration de notre droit de réguler l’IA.
Les bénéfices de l’IA
Avant d’aller plus loin, reconnaissons les nombreux bénéfices de l’IA. Elle commence à transformer la médecine, les soins personnels, la recherche climatique et environnementale, les technologies énergétiques, la finance, l’éducation, et plus encore. L’IA révolutionne notre façon de résoudre des problèmes et de comprendre le monde. Pour ces raisons, oui, les États-Unis devraient s’efforcer de mener le monde en innovation de l’IA.
Cependant, ce leadership doit être équilibré par un engagement tout aussi ambitieux envers la sécurité, la régulation et la responsabilité de l’IA.
Les dangers du développement rapide de l’IA
L’IA se développe de manière exponentielle, à un rythme bien au-delà de notre capacité humaine à comprendre pleinement son fonctionnement et sa direction. Ce que nous observons aujourd’hui n’est que de l’« IA bébé » par rapport à ce que les chercheurs et les PDG prédisent pour l’avenir. Lorsque l’IA fusionnera pleinement avec d’autres technologies révolutionnaires comme l’informatique quantique, la nanotechnologie, la robotique, l’ingénierie moléculaire et l’édition génétique, ses impacts sociétaux pourraient devenir déstabilisants.
Nous approchons déjà d’un tournant historique : l’émergence de systèmes d’IA capables d’auto-amélioration récursive — des systèmes qui peuvent apprendre à s’améliorer eux-mêmes. Les modèles d’apprentissage profond deviennent plus compétents pour optimiser leurs propres algorithmes en parcourant Internet et en absorbant son vaste contenu.
Le plus préoccupant est la possibilité croissante que ces systèmes puissent créer de nouveaux algorithmes entièrement autonomes sans intervention humaine. En d’autres termes, l’IA est en route vers l’autonomie — évoluant vers la capacité de s’évoluer elle-même.
Vers l’Intelligence Artificielle Générale (AGI)
Cette trajectoire nous mène vers l’Intelligence Artificielle Générale (AGI) — une IA dotée de capacités égales ou supérieures à celles de l’intelligence humaine. L’AGI apprendra, raisonniera et communiquera à un niveau élevé, mais elle pourrait également fonctionner de manière indépendante, prendre des décisions et potentiellement former ses propres objectifs. Ce n’est pas de la science-fiction — c’est un chemin que nous empruntons déjà.
Quand cela arrivera-t-il ? Les prévisions varient, mais ces dernières années, les experts et les leaders de l’industrie ont considérablement raccourci leurs délais. Selon Gemini Advanced de Google, « une synthèse prudente pourrait placer l’attente médiane pour l’arrivée de l’AGI à la fin des années 2030 jusqu’aux années 2040 ». Cela laisse peu de temps à la société pour se préparer.
Les implications sociales de l’AGI
La préoccupation la plus alarmante est que, une fois que l’AGI dépasse l’intelligence humaine et acquiert de l’autonomie, elle pourrait ne plus être contrôlable. Un système d’auto-programmation pourrait annuler tous les mécanismes de sécurité établis par les programmeurs humains.
L’AGI pourrait altérer ou déstabiliser chaque secteur de la société. Le marché du travail pourrait faire face à des déplacements massifs d’emplois, alimentant l’incertitude économique. Les inégalités s’approfondiraient, car l’accès aux systèmes d’IA les plus puissants deviendrait limité aux plus riches. L’IA avancée permettra des capacités de surveillance et des mesures de contrôle autoritaire qui rendraient celles de la Chine modestes en comparaison. Les cyberattaques deviendront plus sophistiquées, et l’IA quantique pourrait finalement contourner les méthodes de cryptage. L’AGI accélérera également le développement d’armes autonomes et miniaturisées.
Psychologiquement et socialement, les humains pourraient ressentir un sentiment d’impuissance dans un monde façonné par des forces qu’ils ne comprennent ni ne contrôlent.
Tout cela pourrait se dérouler à un rythme trop rapide pour que les individus et les institutions puissent s’adapter.
La nécessité d’une régulation proactive
Voilà pourquoi nous devons nous informer sur les avancées de l’IA et nous préparer à la contrôler, à la réguler et à la contenir dès maintenant. Bien que des politiques fédérales et internationales complètes soient les plus nécessaires, elles ne viendront pas sous l’administration actuelle. De nombreux États ont pris l’initiative en adoptant des lois abordant les impacts de l’IA sur l’intégrité des élections, le biais, les deepfakes, les droits des consommateurs et la protection des enfants.
L’année dernière, le comité des affaires de l’État de l’Alaska a introduit la résolution conjointe de la Chambre 3 (HCR 3) qui établirait un groupe de travail législatif sur l’IA. La HCR 3 étudierait, attirerait l’attention du public et ferait des recommandations sur l’utilisation de l’IA dans le gouvernement de l’État, l’éducation et les préoccupations légales et éthiques telles que la vie privée des données, le biais et la désinformation. Elle examinerait également les opportunités économiques liées à l’IA, y compris l’établissement de nouveaux centres de données IA en Alaska. L’IA et les centres de données doivent être considérés ensemble car ils sont interconnectés, chacun facilitant l’autre.
Bien que cela n’aurait pas force de loi, nous devrions soutenir l’établissement de ce groupe de travail sur l’IA. Cela renforcerait la sensibilisation du public aux enjeux de l’IA et nous préparerait à influencer comment cette technologie transformative affectera la vie des Alaskans.
