Renforcer les protections de l’IA : un impératif pour l’Europe

Europe cherche à renforcer les protections de l’IA. Il est crucial de les renforcer.

La Commission européenne reconsidère l’AI Act malgré les avertissements répétés de la société civile. Grâce à la proposition omnibus de l’AI Act, des changements ont été suggérés qui — loin d’être techniques — affaibliraient considérablement les safeguards contre les systèmes d’IA jugés les plus dangereux pour la santé, la sécurité et les droits fondamentaux.

La proposition, largement critiquée, a ouvert la porte à des changements plus étendus suggérés par des groupes au sein du Parlement européen.

Des lacunes dans les propositions de redressement

Alors que le débat se poursuit et que les preuves des préjudices liés à l’IA continuent de croître, aucune des propositions n’a pris de mesures pour renforcer les voies de redressement dans le cadre de l’AI Act, malgré le fait que cela constitue une faiblesse fondamentale de la législation.

Au-delà du droit d’obtenir une explication et de l’existence d’un mécanisme de plaintes, l’AI Act offre peu d’outils permettant aux individus d’exercer leurs droits en cas d’infraction ou de préjudice.

Les manquements de l’AI Act

Ces omissions relatives de l’AI Act sont délibérées, l’Acte notant explicitement que le droit de l’UE fournit déjà des recours efficaces aux individus affectés par l’utilisation de systèmes d’IA. Cependant, cette hypothèse est erronée, comme le révèle la recherche du Centre pour la démocratie et la technologie en Europe.

Les droits basés sur des cadres solides sont sapés par des défis pratiques.

Le rôle du RGPD

La première loi à garantir la transparence et la responsabilité des systèmes d’IA était le Règlement général sur la protection des données (RGPD), qui est maintenant également dans le collimateur des efforts de déréglementation de l’UE. En tant que loi basée sur les droits, le RGPD a joué un rôle crucial dans l’établissement de garde-fous et de mécanismes d’action pour les individus dont les données personnelles sont traitées par des systèmes d’IA.

Une contribution notable du RGPD au paysage de redressement efficace est l’existence de droits et de droits d’action pour les individus contre les entités qui traitent des données pour non-respect de leurs obligations.

Les défis des lois sur l’égalité et la non-discrimination

La loi sur l’égalité et la non-discrimination commence par l’impossibilité d’un équilibre de pouvoir entre les parties, offrant des atténuations clés, telles que le renversement de la charge de la preuve en cas de discrimination. Bien que ce mécanisme soit crucial pour les cas où les individus manquent d’informations sur la manière dont une décision algorithmique a été prise, des limitations bloquent son utilisation efficace.

Les obligations de documentation et d’enregistrement de l’AI Act

Les obligations de documentation et d’enregistrement de l’AI Act peuvent apporter une valeur ajoutée. Il est donc essentiel qu’elles soient mises en œuvre et appliquées de manière stricte, et non affaiblies.

Les voies de redressement collectif

La loi sur la protection des consommateurs de l’UE, avec un cadre explicite pour le redressement collectif, a le potentiel de surmonter de nombreux problèmes liés au redressement individuel. Cependant, son efficacité reste à prouver.

Conclusion

Face à ces défis, il est nécessaire de combler les lacunes substantielles laissées par l’AI Act et de renforcer les procédures d’application et de redressement pour répondre aux défis spécifiques liés à l’IA. Parmi d’autres mesures, il est impératif de renforcer les mécanismes d’action collective, d’adopter des garanties procédurales et de veiller à ce que les autorités de régulation soient suffisamment dotées en personnel et en ressources.

Les législateurs doivent s’assurer qu’ils se concentrent sur l’amélioration des faiblesses de l’AI Act plutôt que de les aggraver. Il est crucial d’assurer l’application rapide des safeguards pour les systèmes d’IA à haut risque et de combler les lacunes qui permettent à des systèmes d’IA dangereux de rester sans contrôle.

Scroll to Top