Une éthique de l’IA ancrée dans les dispositions humaines

Une IA Éthique a Besoin de Dispositions Humaines, Pas de Codes Universels

Les efforts pour gouverner l’intelligence artificielle (IA) se sont largement concentrés sur la prévention des dommages et l’application de la conformité. Cependant, des experts avertissent que l’éthique va au-delà de la réglementation. Dans de nombreuses situations quotidiennes, les systèmes d’IA doivent naviguer dans des choix moraux qui dépendent des valeurs individuelles plutôt que des mandats légaux.

Défis de l’Éthique Individuelle dans le Monde Numérique

Ce défi est examiné dans l’étude Individual ethics and dispositions in the digital world, publiée dans AI & Society. Cette recherche propose un modèle computationnel pour intégrer les préférences morales personnelles dans les systèmes d’IA. Les auteurs soutiennent que l’IA éthique doit tenir compte des différences individuelles dans le jugement, même en opérant sous le même cadre légal.

Cette recherche arrive au milieu d’efforts réglementaires croissants, y compris la Loi sur l’IA de l’Union Européenne, qui priorise la sécurité, la responsabilité et la conformité légale. Bien que ces cadres établissent des limites non négociables pour le comportement de l’IA, les auteurs soutiennent que la réglementation à elle seule ne peut pas aborder la diversité éthique de la prise de décision humaine réelle.

Pourquoi l’Éthique Universelle de l’IA est Insuffisante

Beaucoup de débats publics sur l’éthique de l’IA se sont concentrés sur des scénarios extrêmes, tels que les armes autonomes ou les décisions vitales prises par des voitures autonomes. Cependant, les auteurs déplacent l’attention vers une réalité plus silencieuse mais omniprésente : les systèmes d’IA agissent de plus en plus comme des partenaires numériques dans des situations morales ordinaires qui façonnent la vie quotidienne.

Ces situations incluent la décision de prioriser des produits éthiques par rapport à des alternatives moins chères, de faire des économies d’énergie au détriment du confort personnel, ou de médiatiser l’équité dans les services publics. Dans ces contextes, les décisions éthiques ne sont que rarement binaires ou universelles. Elles dépendent des valeurs personnelles, des normes sociales, de l’expérience vécue et du contexte situationnel.

Modéliser le Comportement Moral par les Dispositions

Les auteurs discutent du concept de dispositions morales, tiré des théories philosophiques des propriétés dispositionnelles. Une disposition reflète l’inclinaison d’un individu à agir lorsque certaines conditions sont remplies, sans garantir que l’action se produira toujours. Le courage, la générosité et l’équité sont des exemples classiques de dispositions.

Pour opérationnaliser cette idée, les chercheurs proposent une méthode structurée pour élucider les dispositions morales individuelles à l’aide de questionnaires basés sur des scénarios. Les participants sont confrontés à des dilemmes éthiques quotidiens et doivent choisir un cours d’action, tout en justifiant leur choix à l’aide de quatre dimensions évaluatives :

  • Conséquences pour autrui
  • Conséquences pour soi-même
  • Alignement avec les normes sociales
  • Alignement avec l’expérience personnelle

Ces dimensions ne sont pas traitées comme des vérités morales, mais comme des paramètres descriptifs. Chaque réponse génère une signature morale qui reflète comment un individu pèse chaque considération dans un contexte donné.

De la Théorie à l’Action Éthique dans les Systèmes d’IA

La recherche présente un modèle computationnel formel qui traduit les réponses humaines en profils éthiques lisibles par machine. Ces profils permettent aux systèmes d’IA de reconnaître quelles actions s’alignent le mieux avec les tendances morales d’un utilisateur dans de nouvelles situations.

Le modèle lie trois éléments : une description du cadre mondial, un ensemble d’actions possibles et une action préférée qui reflète la disposition de l’utilisateur dans ce contexte. Lorsque surgit une situation similaire, le système d’IA peut comparer le nouveau contexte à ceux déjà rencontrés et sélectionner l’action la plus cohérente avec le profil éthique de l’utilisateur.

Équilibrer Personnalisation et Garanties Éthiques

Bien que la personnalisation soit souvent présentée comme un bien incontesté dans la conception de l’IA, les auteurs adoptent une approche plus prudente. Ils reconnaissent que les préférences personnelles peuvent être biaisées, nuisibles ou en conflit avec les normes sociales. Pour cette raison, le modèle opère explicitement dans des limites éthiques strictes.

Les exigences légales et les droits fondamentaux restent non négociables. Les préférences qui violent ces contraintes ne peuvent pas être mises en œuvre, même si elles sont capturées avec précision. Les auteurs soutiennent que l’élaboration de telles préférences est néanmoins précieuse, car elle fournit un aperçu de la complexité du raisonnement moral humain.

Implications pour la Politique, la Conception et la Gouvernance de l’IA

Pour le grand public, la recherche remet en question les récits simplistes sur l’éthique de l’IA. Elle reformule l’IA éthique non pas comme un problème à résoudre une fois pour toutes, mais comme une négociation en cours entre individus, technologie et institutions.

Pour les décideurs politiques, elle souligne les limites de la réglementation dans la formation du comportement éthique. Les lois peuvent interdire les dommages, mais elles ne peuvent pas dicter la manière dont les individus priorisent l’équité, la générosité ou la responsabilité dans des situations ambiguës.

Pour les développeurs d’IA, l’étude offre un chemin concret vers une conception centrée sur l’humain. En intégrant des dispositions éthiques plutôt que des règles fixes, les systèmes peuvent devenir plus adaptatifs, transparents et respectueux de l’autonomie des utilisateurs.

Scroll to Top