Gouvernance de l’IA : Conseils pratiques pour les avocats internes
Lors du séminaire annuel des avocats internes, un avocat spécialisé en cybersécurité, confidentialité des données et technologie a partagé des conseils complets sur le rôle stratégique de l’IA dans le paysage commercial moderne, les risques clés associés à sa mise en œuvre, l’évolution de la réglementation de l’IA et le plan de gouvernance de l’IA.
Les formes de technologie IA
Pour donner le ton à l’événement, qui visait à fournir des stratégies pratiques et déployables pour la gouvernance de l’IA, l’intervenant a commencé par décrire les différentes formes de technologies IA. La forme la plus commune et “primitive” de l’IA est l’automatisation, qui exécute des tâches basées sur des règles prédéfinies visant à améliorer l’efficacité. Par exemple, un thermostat qui active le chauffage lorsque la température atteint un certain niveau.
Les risques juridiques liés à l’automatisation sont relativement faibles, contrairement à ceux associés à l’IA générative, qui peut créer des violations potentielles de la propriété intellectuelle et des inexactitudes factuelles. L’IA générative fait référence à des modèles qui créent un nouveau contenu basé sur des motifs et des structures dans de grandes quantités de données existantes.
Types d’IA émergents
L’IA agentique est une catégorie émergente. Cette technologie peut poursuivre des objectifs de manière autonome, prendre des décisions et exécuter des tâches avec peu d’intervention humaine. Les exemples incluent les voitures autonomes et des outils comme Virtuoso QA, qui effectuent une assurance qualité de manière autonome.
Évolution du paysage réglementaire
Rester à jour avec l’évolution du paysage réglementaire est un défi, mais essentiel. L’IA n’est plus une technologie d’avenir, elle est de plus en plus intégrée dans plusieurs secteurs d’activité. Le rôle du département juridique a évolué, passant de garde-fou réactif à conseiller stratégique proactif.
Les équipes juridiques doivent garantir que l’adoption de l’IA est à la fois stratégique et défendable. Comprendre les réglementations existantes est l’une des premières étapes pour établir les garde-fous nécessaires.
Approches réglementaires globales
La Loi européenne sur l’IA est souvent considérée comme l’approche juridictionnelle clé. Elle applique un cadre complet et basé sur les risques, catégorisant les systèmes IA selon leur niveau de risque : inacceptable, élevé, limité ou minimal. Si vous faites des affaires dans l’UE et que vous avez un outil IA, la Loi sur l’IA de l’UE s’appliquera.
Le Royaume-Uni adopte une approche basée sur l’innovation et le contexte, tandis que la Chine met en place des réglementations axées sur la transparence algorithmique et le consentement explicite des utilisateurs.
Principes émergents en matière de réglementation
Plusieurs principes fondamentaux commencent à émerger dans le contexte de la réglementation de l’IA. La transparence est un enjeu clé, avec des exigences de labeling pour les deep fakes. L’équité et la non-discrimination sont également des thèmes émergents, avec des directives similaires aux États-Unis.
La responsabilité est un autre thème réglementaire, exigeant des systèmes de gestion des risques formels pour les IA classées à haut risque. La surveillance humaine est également de plus en plus essentielle, avec des exigences pour que les systèmes à haut risque puissent être annulés par un humain.
Risques juridiques liés à l’IA
Pour les organisations envisageant d’utiliser l’IA, plusieurs risques juridiques prioritaires se présentent. La conformité juridictionnelle représente un défi en raison du patchwork de réglementations à travers les États-Unis.
La propriété intellectuelle présente également un risque, car les œuvres générées uniquement par l’IA manquent de protection par le droit d’auteur. Les biais algorithmiques peuvent amplifier les risques, comme l’a montré l’exemple d’Amazon.
Les responsabilités contractuelles représentent un autre risque, car les accords standard des fournisseurs sont souvent insuffisants. Les addenda liés à l’IA deviennent de plus en plus courants.
Les avocats doivent comprendre les risques des technologies pertinentes, car toute violation résultant de l’utilisation d’informations confidentielles dans un outil IA pourrait entraîner des sanctions professionnelles.
En définitive, l’IA est comparable à un jeune enfant ; elle cherche à donner une réponse et à satisfaire, mais elle peut parfois inventer des informations. La responsabilité professionnelle des avocats exige une vérification rigoureuse des informations fournies.
