Pour les sciences judiciaires sous la loi sur l’intelligence artificielle
Introduction
La présente décennie a vu le déploiement généralisé des systèmes d’intelligence artificielle (IA) dans presque tous les domaines de l’activité humaine. La perspective de la commercialisation massive des systèmes d’IA a considérablement contribué à l’augmentation du financement de la recherche en IA. Cependant, en plus des opportunités, il existe des risques significatifs liés à l’IA. De nombreux systèmes d’IA sont d’une telle complexité que leurs processus de décision ne sont pas facilement explicables, d’où leur appellation de « boîtes noires ».
Intelligence artificielle dans les sciences judiciaires
Un des premiers exemples de systèmes d’IA judiciaires était un réseau de neurones artificiels développé entre 1993 et 1995 pour le scoring des signaux polygraphiques. Le développement ultérieur des applications d’IA judiciaires a correspondu aux progrès généraux de la recherche en IA. Une revue récente de la littérature suggère un intérêt croissant pour l’utilisation de l’IA dans les sciences judiciaires, par exemple :
- Détermination du sexe ou de l’âge d’individus à partir de leurs dents, salive, os ou empreintes de chaussures.
Loi sur l’intelligence artificielle
Le but général de la Loi sur l’intelligence artificielle (ci-après désignée par la « Loi ») est défini dans les considérants et l’article 1(1) de la Loi, stipulant que : « L’objectif de ce règlement est […] de poser un cadre juridique uniforme en particulier pour l’utilisation des systèmes d’intelligence artificielle dans l’Union […] tout en garantissant un haut niveau de protection de la santé, de la sécurité, des droits fondamentaux […] contre les effets nuisibles des systèmes d’IA dans l’Union, et de soutenir l’innovation. »
Les sciences judiciaires comme domaine à haut risque
Au sein de l’annexe III de la Loi, deux domaines d’applications à haut risque associés aux sciences judiciaires sont identifiés, à savoir l’application de la loi et l’administration de la justice. Le champ d’application du domaine de l’application de la loi comprend les systèmes d’IA destinés à être utilisés par les autorités judiciaires ou en leur nom, ou par des institutions, organes, bureaux ou agences de l’Union en soutien aux autorités judiciaires.
Obligations des experts judiciaires en tant que déployeurs
Les exigences générales pour les systèmes d’IA à haut risque peuvent être résumées comme suit :
- Un système de gestion des risques doit être mis en œuvre et maintenu tout au long du cycle de vie du système.
- La documentation technique doit être élaborée de manière à démontrer que le système respecte les exigences établies par la Loi, et elle doit être fournie aux autorités compétentes avec les informations nécessaires pour évaluer la conformité du système.
Pénalités en cas de non-conformité
En général, le non-respect de la Loi peut entraîner des amendes administratives spécifiées dans l’article 99 de la Loi. De plus, d’autres sanctions et mesures d’exécution peuvent être imposées, mais les règles pertinentes doivent être promulgées par les États membres. De même, le choix des autorités compétentes pour imposer des amendes sera décidé par les États membres.
Conclusions
L’introduction de la Loi sur l’IA représente l’étape la plus significative vers la réglementation de l’IA qui ait été entreprise jusqu’à présent. La Loi constitue une réponse complète aux risques liés à l’IA, qui augmentent avec l’avancement de cette technologie. Notamment, la Loi impose des obligations aux opérateurs de systèmes d’IA en fonction des niveaux de risques inhérents à ces systèmes. Compte tenu de l’impact croissant de l’IA sur les sciences judiciaires, il serait préférable que les sciences judiciaires soient classées comme un domaine à haut risque.
