Manque de régulation de l’IA au Canada

Le Canada n’a toujours pas de réglementation significative sur l’IA

Les décideurs politiques et les leaders de l’industrie ont passé des années à faire toutes sortes de promesses sur la manière dont les nouvelles avancées en technologie numérique et en intelligence artificielle vont transformer l’économie et notre vie quotidienne.

Engagements du gouvernement

Le gouvernement fédéral a proposé « plus de 1 milliard de dollars au cours des cinq prochaines années pour renforcer les écosystèmes d’intelligence artificielle et de calcul quantique du Canada tout en intégrant davantage la technologie de l’IA dans les opérations du gouvernement fédéral. »

Approche du Canada face à l’IA

Dans le cadre d’un changement tumultueux dans la relation du Canada avec les États-Unis, le Premier ministre Mark Carney et son gouvernement plaident pour une approche centrée sur la souveraineté des données et de l’IA. Cependant, le ministre de l’IA, Evan Solomon, insiste sur le fait que le Canada doit « s’éloigner de l’‘over-indexing on warnings and regulation’ pour s’assurer que l’économie bénéficie de l’IA. »

Problèmes de réglementation

Le manque de réglementation sur le développement et la mise en œuvre des technologies d’IA au Canada est un problème majeur. Bien que les décideurs fédéraux aient élaboré de nombreux cadres non contraignants autour de l’IA, le Canada manque de réglementation contraignante, laissant les Canadiens sans protections adéquates contre les dommages causés par l’IA à la vie privée et aux droits humains.

En septembre 2025, le gouvernement fédéral a lancé un Groupe de travail sur la stratégie de l’IA et une « sprint nationale » de 30 jours pour recueillir des retours publics pour une stratégie renouvelée de l’IA. Cependant, cette initiative continue de manquer son objectif. Comme l’ont clairement indiqué des organisations de droits humains et des universitaires dans une lettre ouverte en octobre dernier, les Canadiens ne peuvent pas être souverains sur une technologie dont ils ne sont pas protégés.

Antécédents de politique sur l’IA

La Loi sur l’intelligence artificielle et les données (AIDA) de 2022 était la première tentative du Canada de réglementer l’IA et d’aborder les préoccupations concernant la vie privée et les droits humains. Elle tentait d’évaluer les dommages et les biais de l’IA, mais uniquement pour les systèmes d’IA à fort impact. En revanche, la Loi de l’Union européenne sur l’IA a adopté une approche basée sur le risque, établissant quatre niveaux de risque pour les systèmes d’IA.

La législation de 2022 a été critiquée pour son « processus de consultation publique exclusionnaire, sa portée vague et son manque de surveillance réglementaire indépendante. » Des experts ont appelé le gouvernement à abandonner la loi, affirmant qu’elle n’a pas réussi à intégrer une évaluation des impacts sur les droits humains.

Conséquences de l’AIDA

Les experts ont décrit l’AIDA comme problématique pour la manière dont elle définissait les risques et les dommages liés à l’IA. Bien que le projet de loi se concentre sur des compréhensions individualistes et quantifiables, il néglige les impacts environnementaux et communautaires plus difficiles à quantifier. En résumé, l’AIDA n’était pas conçue pour fournir aux citoyens les définitions, le langage ou les compréhensions nécessaires pour soumettre des plaintes contre les systèmes d’IA.

Les préoccupations ne s’arrêtaient pas là. Les organisations de droits humains, de vie privée et de travail ont également souligné que l’AIDA ne semblait pas conçue « pour protéger ceux qui ont le plus besoin de protection contre l’IA. » De plus, il a été noté que les consultations fédérales privilégiaient le secteur privé au détriment des secteurs et des travailleurs vulnérables.

Développements récents de la politique

Le ministère de l’Innovation, des Sciences et du Développement économique du Canada a publié les résultats de sa…

Scroll to Top