Réglementation des chatbots IA à Ottawa : Une approche problématique
Le ministre de l’IA, Evan Solomon, a convoqué des dirigeants d’OpenAI à Ottawa fin février pour discuter de la décision de l’entreprise de ne pas alerter les autorités concernant le compte de Jesse Van Rootselaar, le tireur de Tumbler Ridge qui a tué huit personnes. OpenAI a estimé que l’activité du compte ne représentait pas un risque imminent et crédible de préjudice physique grave.
Suite à cette réunion, Solomon a exprimé sa déception envers OpenAI, affirmant que l’entreprise n’avait pas présenté de protocoles de sécurité nouveaux. Le ministre de la Justice, Sean Fraser, a indiqué qu’OpenAI devait apporter des modifications, sinon le gouvernement interviendrait pour réguler les entreprises d’intelligence artificielle.
Les Actes sur les Préjudices en Ligne
OpenAI a promis de faire davantage, mais l’attention s’est rapidement tournée vers l’Online Harms Act comme solution réglementaire potentielle. Ce projet de loi, ou Bill C-63, avait échoué l’année précédente, mais devrait revenir sous une forme ou une autre dans les mois à venir. Étant donné que cette loi est conçue pour traiter les préjudices en ligne, il n’est pas surprenant que certains suggèrent qu’elle pourrait être élargie pour couvrir les chatbots IA.
Cependant, cette loi a été soigneusement conçue pour éviter de faire ce que les politiciens souhaitent que les entreprises d’IA fassent, en exemptant explicitement les communications privées et la surveillance proactive de son champ d’application. Appliquer l’Online Harms Act aux chatbots IA ne se limiterait pas à étendre les règles de sécurité en ligne existantes à une nouvelle technologie. Cela nécessiterait de démanteler les garanties de confidentialité fondamentales, ajoutées après que la proposition précédente ait suscité de vives critiques.
Les Défis de la Réglementation
Les propositions visant à utiliser les préjudices en ligne pour réguler les chatbots IA risquent de raviver des inquiétudes en matière de surveillance qui avaient conduit le gouvernement à revenir à la planche à dessin il y a quelques années.
La loi a été conçue pour réguler les plateformes de médias sociaux, et non tous les services numériques. La section 2 définit un service de médias sociaux comme un site web ou une application dont le but principal est de faciliter la communication en ligne entre utilisateurs. Les services régulés étaient définis comme des services de médias sociaux atteignant un certain seuil d’utilisateurs.
Les interactions avec des chatbots, comme ChatGPT, n’impliquent pas de communication entre utilisateurs ou de diffusion publique. Une invite saisie dans un chatbot est généralement visible uniquement par l’utilisateur individuel et le fournisseur.
Limites de la Loi
En fait, la loi a renforcé cette limitation par une garantie de confidentialité explicite. La section 6(1) stipule que les devoirs de la loi ne s’appliquent pas aux fonctionnalités de messagerie privée d’un service régulé. Cela reflète une limite politique claire choisie par le gouvernement, qui a décidé de réguler les préjudices amplifiés publiquement, tout en laissant les communications numériques interpersonnelles en dehors du régime.
Par conséquent, amener les interactions de chatbot sous l’Online Harms Act nécessiterait de restreindre ou de contourner effectivement les protections de confidentialité de la loi.
Conséquences Potentielles
La section 7(1) stipule que rien dans la législation n’exige d’un opérateur qu’il recherche de manière proactive le contenu communiqué sur le service pour identifier le contenu nuisible. Le mouvement actuel visant à appliquer l’Online Harms Act aux chatbots IA va dans la direction opposée.
Identifier des comportements potentiellement dangereux à partir des interactions des chatbots IA nécessiterait presque inévitablement une analyse des invites et des modèles de conversation au sein d’échanges privés, introduisant ainsi une surveillance dans les environnements que la loi a été conçue pour éviter.
Ces garanties ne sont pas là par accident. Elles sont citées dans l’analyse de conformité de la Charte des droits et libertés du ministère de la Justice pour justifier la conformité du projet de loi. L’application de l’Online Harms Act aux conversations des chatbots IA risque de rouvrir les questions que les décideurs politiques cherchaient précédemment à éviter.
En effet, il est difficile de voir la différence entre quelque chose posté à un chatbot IA ou un contenu similaire saisi dans une requête de recherche ou inclus dans un message texte ou un e-mail.
Conclusion
Il existe un rôle pour la réglementation des chatbots IA, mais ce n’est pas un Online Harms Act élargi. Le point de départ devrait être une législation spécifique axée sur la transparence, mettant l’accent sur l’assurance qu’il y ait une information complète des politiques de sécurité des utilisateurs et sur la manière dont elles sont mises en œuvre et appliquées.
