La loi de 1970 qui rétablit la légitimité de l’IA

La loi de 1970 qui résout la crise de légitimité de l’IA

La profession de comptable repose sur une utilisation précise du langage, s’appuyant sur une philosophie de cinq siècles d’ordre et de vérification, renforcée par des agences fédérales, des conseils d’État, des organismes de normalisation privés et un système de licence comportant des menaces de responsabilité civile et pénale. Des institutions telles que le FASB, l’IASB et la SEC existent pour définir le langage et la signification.

Pourtant, même dans cette forteresse de discipline linguistique, un terme comme « opérationnel » a des significations différentes sur le compte de résultat et sur l’état des flux de trésorerie.

Comprendre l’Intelligence Artificielle Générale (AGI)

L’Intelligence Artificielle Générale (AGI) est la capacité hypothétique d’un programme informatique à exécuter n’importe quelle tâche intellectuelle qu’un humain peut accomplir. Les outils basés sur ce principe sont déjà déployés, traitant des termes comme « opérationnel » comme des symboles statistiques.

Cependant, même Claude Shannon, dont les théories mathématiques ont contribué à l’apprentissage automatique, soutiendrait que, bien que le langage puisse être représenté comme des signaux mesurables et encodés, une telle approche comporte des contraintes inévitables.

Les limites des systèmes d’IA

Les systèmes d’IA construits sur les mathématiques de Shannon ont atteint une limite structurelle. Ils peuvent optimiser des modèles de signaux, mais ne peuvent fournir les structures sémantiques et épistémiques dont dépendent les institutions.

Les déploiements d’IA ne sont souvent pas intentionnels. Des recherches de la Réserve Fédérale montrent que la plupart des IA en milieu de travail entrent via l’utilisation informelle des employés plutôt que par une adoption formelle, mais l’impact est institutionnel.

Le précédent du crédit

À la fin des années 1960, l’industrie du crédit était un système prédictif national qui mélangeait des données qualitatives et quantitatives pour évaluer la solvabilité d’une personne. Bien qu’elle touche presque chaque Américain, elle fonctionnait avec des méthodes opaques, une terminologie incohérente et peu de responsabilité.

En 1970, le public en a eu assez. La Loi sur les rapports de crédit équitables (FCRA) a été adoptée à l’unanimité et signée par le président Nixon. Elle n’exigeait aucune technologie avancée, mais a construit ce que nous appellerions aujourd’hui une couche épistémique.

Les principes de la FCRA

La FCRA a établi des définitions pour de nombreux termes, imposé des normes de précision aux agences de reporting, et créé un processus de suivi et de correction. Elle a donné aux consommateurs le droit d’accéder à leurs dossiers et de contester les erreurs.

Ce qui rend la FCRA puissante, c’est qu’elle a régi la signification, les règles et les responsabilités d’un système prédictif bien avant l’existence de l’IA moderne.

Construire une architecture de gouvernance

W. Edwards Deming a prouvé que les mathématiques seules ne pouvaient pas gouverner les systèmes. La qualité exigeait la coopération humaine autour de processus explicitement définis, continuellement mesurés.

Les systèmes d’IA violent ce cadre à chaque point. Ils fonctionnent sans entrées définies, sans processus contrôlés, ni autorité responsable.

Les étapes à suivre

  1. Définir l’ADN institutionnel : définir explicitement les termes clés et les règles commerciales, avec des exécutifs nommés responsables.
  2. Mesurer la cohérence sémantique et épistémique : suivre l’utilisation cohérente du langage et l’alignement des sorties d’IA avec les règles établies.
  3. Établir l’auditabilité : chaque décision doit être reconstructible, avec des entrées et des règles appliquées.
  4. Utiliser l’IA pour améliorer la gouvernance : les interactions des utilisateurs révèlent les cas limites et les lacunes dans les connaissances institutionnelles.

Conclusion

Nous sommes à un carrefour critique. L’IA, tout comme le secteur du crédit en 1970, doit se conformer à des normes de gouvernance. Sans cela, la signification institutionnelle et la confiance publique s’éroderont. Il est temps de construire l’architecture nécessaire pour garantir que l’IA renforce nos institutions.

Scroll to Top