Colonialisme numérique : l’extraction des données autochtones par l’IA

Les systèmes d’IA et le risque du ‘colonialisme numérique’

Une recherche met en garde que l’intelligence artificielle (IA) pourrait reproduire des schémas d’exploitation coloniale à l’ère numérique. Sans des cadres de gouvernance plus solides, l’IA pourrait devenir un autre mécanisme par lequel des institutions puissantes extraient de la valeur des populations marginalisées tout en les laissant exclues des bénéfices.

Un cadre de gouvernance nécessaire

Une étude intitulée Prévenir l’extractivisme de l’IA examine ce risque croissant et propose un cadre juridique et de gouvernance pour le prévenir. La recherche révèle que les systèmes d’IA sont de plus en plus construits sur des données provenant de communautés autochtones sans surveillance, compensation ou participation significatives.

Les dangers de l’extractivisme numérique

Le développement de l’IA dépend de bases de données massives qui incluent souvent des enregistrements linguistiques autochtones, des connaissances écologiques, des informations biométriques et des données géospatiales. Ces ressources, fréquemment collectées à partir de dépôts en ligne et d’archives numériques, sont considérées comme gratuites à utiliser. Cette approche risque de reproduire l’extractivisme colonial historique, où des ressources précieuses étaient prélevées sans consentement.

Exemples de l’IA reproduisant des schémas coloniaux

Un exemple notable concerne l’utilisation des langues autochtones dans les ensembles de données d’entraînement de l’IA. Les modèles d’apprentissage automatique pour la reconnaissance vocale et la traduction s’appuient souvent sur des enregistrements de langues en danger, collectés sans consultation des communautés concernées.

Pour de nombreux groupes autochtones, la préservation des langues est liée à l’identité culturelle. Les langues, autrefois réprimées, sont maintenant numérisées et intégrées dans des systèmes d’IA sans l’implication des communautés.

Technologies biométriques

Les technologies biométriques alimentées par l’IA, telles que les systèmes de reconnaissance faciale, ciblent souvent de manière disproportionnée les communautés autochtones, notamment dans les contextes de conflits liés aux droits environnementaux ou fonciers.

Analyse géospatiale et risques

L’analyse géospatiale soulève également des préoccupations. Les systèmes d’apprentissage automatique traitent des données d’images satellites pour identifier des sites archéologiques et des paysages culturellement significatifs. Ces données, une fois accessibles, peuvent exposer les territoires autochtones à l’exploitation commerciale.

Extraction de données écologiques et biologiques

Les progrès en biologie numérique permettent de séquencer des informations génétiques. Ce processus pourrait faciliter de nouvelles formes de biopiraterie, où des entreprises utilisent des données génétiques dérivées de connaissances autochtones sans compensation.

Inadéquation des cadres de gouvernance actuels

Les cadres de gouvernance existants ne sont pas adaptés pour traiter les défis éthiques liés à l’extraction de données. Bien que des accords internationaux régulent l’utilisation des ressources biologiques, des protections similaires sont absentes dans le domaine numérique.

Principes de souveraineté des données autochtones

La souveraineté des données autochtones est un mouvement croissant affirmant que les peuples autochtones ont le droit de contrôler les données concernant leurs communautés. Plusieurs cadres ont émergé pour soutenir cette approche, comme les Principes CARE et le cadre OCAP (Ownership, Control, Access, Possession).

Un modèle de gouvernance proposé

Pour faire face aux risques d’extractivisme, l’étude propose un nouveau modèle de gouvernance qui combine les mécanismes d’Accès et de Partage des Bénéfices avec des cadres de gouvernance des données autochtones. Ce modèle de gouvernance enchevêtrée établirait des protections plus fortes pour les données autochtones.

Les principes éthiques garantiraient que le développement de l’IA soit aligné sur les valeurs autochtones. Les chercheurs plaident pour que la gouvernance de l’IA dépasse les directives volontaires vers des normes internationales contraignantes.

Un traité international, inspiré du Protocole de Nagoya, pourrait établir des règles cohérentes pour la gouvernance des données IA, assurant que les entreprises respectent les mêmes normes, quel que soit leur emplacement.

Scroll to Top