Gouvernance et responsabilité de l’IA : Qui est responsable de l’erreur de l’algorithme ?
En quelques mois, l’intelligence artificielle générative (IA) est passée d’une technologie émergente à un outil commercial grand public, avec des applications telles que ChatGPT entraînant une adoption généralisée à travers les industries. Alors que les organisations expérimentent de plus en plus l’IA pour améliorer l’efficacité et la prise de décision, les régulateurs du monde entier s’efforcent de trouver un équilibre entre innovation et responsabilité.
A. (Manque de) réglementation sur l’IA
La loi proposée sur l’intelligence artificielle et les données (AIDA) du Canada, qui était autrefois considérée comme la première loi complète sur l’IA du pays, a de facto échoué suite à la récente élection fédérale. En décembre 2025, le Canada ne dispose d’aucun texte législatif unique dédié à la réglementation de l’IA. En l’absence de législation complète sur l’IA, la surveillance des technologies de l’IA repose sur des lois existantes, en particulier les lois sur la confidentialité, qui servent désormais de substitut imparfait à la réglementation de l’IA.
Le ministre canadien de l’Intelligence artificielle et de l’Innovation numérique a récemment souligné l’engagement continu du gouvernement fédéral à favoriser l’innovation, notant que « l’IA est un moteur puissant de croissance, de productivité et d’innovation ». L’absence d’un cadre législatif clair laisse les professionnels du droit et les décideurs s’appuyer sur un patchwork de lois existantes pour traiter les risques émergents.
B. Responsabilité liée à l’utilisation de l’IA
Alors que la technologie de l’IA transforme les industries (de la finance et la santé aux services juridiques et au-delà), les organisations se heurtent de plus en plus à la question de savoir comment les doctrines traditionnelles de négligence, de responsabilité du produit et de devoir fiduciaire s’appliquent au déploiement et à l’utilisation de l’IA. Les organisations qui déploient l’IA peuvent généralement s’attendre à assumer la responsabilité des résultats de son utilisation, soulignant l’importance d’une gouvernance soigneuse, de la gestion des risques et de garanties contractuelles.
Dans l’affaire Moffatt c. Air Canada, une cliente cherchant des tarifs de deuil s’est fiée à un chatbot IA intégré au site Web d’Air Canada et a été incorrectement informée que des billets à prix réduit étaient disponibles. Agissant sur cette désinformation, la cliente a acheté des billets au prix fort. Lorsque l’erreur a été soulevée devant le Tribunal de résolution civile de la Colombie-Britannique, Air Canada a nié toute responsabilité, arguant que le chatbot fonctionnait de manière indépendante. Le tribunal a rejeté cette défense et a déclaré la compagnie aérienne responsable de la représentation négligente, soulignant que tout contenu sur un site Web – qu’il soit statique ou généré de manière interactive par l’IA – relève de la responsabilité de l’entreprise.
Une autre affaire a vu le commissaire à l’information et à la protection de la vie privée de l’Ontario conclure que l’utilisation par l’Université McMaster d’un outil de surveillance par IA violait la loi sur la protection de la vie privée applicable aux universités. L’université n’a pas fourni un avis adéquat aux étudiants concernant les informations personnelles capturées pendant la surveillance d’un examen, entraînant des conséquences juridiques.
C. Contracter pour l’IA
Pour atténuer certains des risques évoqués, les organisations doivent examiner minutieusement les contrats avec les fournisseurs d’IA afin de s’assurer que des questions critiques (par exemple, la confidentialité, la gouvernance des données, la conformité réglementaire, l’attribution de la responsabilité) sont traitées en des termes clairs et exécutoires.
Lors de la négociation des solutions d’IA, il est essentiel que l’accord aborde clairement les obligations de propriété des données, les droits de propriété intellectuelle, et alloue correctement la responsabilité pour les erreurs algorithmiques ou les violations de données. La transparence, la sécurité des données et la conformité réglementaire doivent également être des priorités lors de la rédaction de ces contrats.
D. Conclusion
Alors que la technologie de l’IA façonne le paysage commercial canadien, il est impératif que les organisations établissent un cadre juridique robuste régissant son utilisation. Les lois canadiennes commencent à aborder les défis novateurs posés par l’IA, et il est crucial que les parties prenantes privilégient la transparence, la responsabilité et les considérations éthiques. En fin de compte, la responsabilité peut incomber au déployeur de la technologie en cas de non-conformité.
Les organisations utilisant des technologies d’IA doivent veiller à ce que tout fournisseur avec lequel elles contractent respecte toutes les lois et réglementations applicables, car la responsabilité pourrait leur incomber en cas de manquement.
