Les dilemmes éthiques de l’IA

Est-il possible d’avoir une IA éthique ?

La nourriture que nous consommons, les vêtements que nous portons et les médias que nous utilisons sont de plus en plus chargés éthiquement. Nous vivons à une époque où le consumérisme est omniprésent et rempli de préoccupations morales – où même le canapé sur lequel nous nous asseyons pour réfléchir à ces questions délicates pourrait lui-même être un dilemme éthique.

Les préoccupations éthiques liées à l’IA

Il y a de nombreuses raisons de s’inquiéter de l’éthique de l’utilisation de l’IA. Ces préoccupations vont des impacts environnementaux concrets aux problèmes de droits d’auteur, comme la manière dont les données utilisées pour former les systèmes ont été collectées de manière responsable. Il est facile et essentiel de réfléchir aux éthiques des entreprises d’IA et de leurs produits. Cependant, parfois, il n’est pas nécessaire de le faire : nous avons déjà un exemple très clair de ce qu’est une IA non éthique.

Récemment, Grok – le chatbot créé par xAI d’Elon Musk, largement utilisé via X, anciennement connu sous le nom de Twitter – a commencé à être utilisé pour générer des images sexualisées et violentes, en particulier de femmes. Le comportement inapproprié de Grok est en fait quelque chose qui est devenu une norme pour de tels systèmes. L’IA est conçue pour être obéissante et n’a pas de codes moraux pour la retenir, ce qui signifie qu’elle répondra à toute demande. D’autres systèmes d’IA ne produiront pas de telles images uniquement parce qu’ils ont été spécifiquement interdits de le faire par leurs créateurs.

Les effets de l’IA sur l’humanité

Cette situation soulève des préoccupations plus profondes et plus complexes touchant à la question fondamentale de la manière dont nous devons être en tant qu’êtres humains : quel dommage l’utilisation de l’IA nous fait-elle en tant qu’êtres humains, et, si elle cause du préjudice, sommes-nous non éthiques en l’utilisant ?

Cette question devient de plus en plus courante et urgente. Une étude publiée récemment a montré qu’il existe un écart de genre dans l’utilisation de l’IA : les femmes l’utilisent moins que les hommes, principalement en raison des risques qu’elle présente. L’étude a révélé un écart allant jusqu’à 18 % entre les sexes et a suggéré que les femmes « font preuve de plus de compassion sociale, de préoccupations morales traditionnelles et de recherche d’équité ». Les préoccupations éthiques sont nombreuses.

Les préoccupations éthiques des chatbots

Le document a cité des inquiétudes selon lesquelles l’utilisation de chatbots pour accomplir du travail était injuste, ou constituait une forme de tricherie. Mais il y a beaucoup plus : les données sensibles et personnelles qu’ils collectent ; les façons dont l’IA pourrait être utilisée pour adopter des comportements non éthiques, comme des actes violents ; et les préoccupations croissantes concernant la façon dont ces systèmes renforcent les biais et d’autres formes d’injustice.

Des campagnes comme celles de Laura Bates alertent depuis longtemps sur ces problèmes, un sujet qu’elle aborde largement dans son livre The New Age of Sexism: How the AI Revolution is Reinventing Misogyny. Elle soutient qu’une IA non régulée peut amplifier la misogynie, le harcèlement et l’inégalité – des assistants virtuels par défaut avec des voix féminines dans des rôles subalternes, aux biais dans les algorithmes de recrutement, en passant par la création de contenus sexuels deepfake. Lors d’une audition devant le Women and Equalities Committee au House of Commons l’année dernière, elle a soutenu que l’IA éthique devrait être conçue en tenant compte de ces risques, notant que de nombreuses préoccupations similaires avaient été soulevées il y a 20 ans à propos des réseaux sociaux, et que nous voyons maintenant les mêmes erreurs répétées à une plus grande échelle avec l’IA.

Les problèmes éthiques dès le départ

Les problèmes éthiques potentiels de l’IA – ou, plus spécifiquement, des grands modèles de langage qui alimentent des produits comme ChatGPT et Gemini – commencent dès le processus de formation. Ces modèles sont puissants car ils ont été entraînés sur un vaste corpus d’écrits pour apprendre comment les mots ont tendance à s’assembler. Cependant, il n’existe pas de moyen propre d’accéder à une telle quantité de texte.

Pour l’obtenir, de nombreuses entreprises d’IA ont dû recourir à l’extraction de texte sur Internet : tout, des commentaires sur Reddit aux œuvres de grands auteurs. Ces mots forment la base des grands modèles de langage, et ils n’existeraient pas sans eux – pourtant, ils ont souvent été pris sans trop se préoccuper des titulaires de droits d’auteur ou de la volonté des personnes qui les ont écrits.

Les débats juridiques autour de l’utilisation des données

Certaines de ces préoccupations éthiques se sont exprimées dans les tribunaux, où des arguments sur la moralité de ce type d’utilisation ont été menés, souvent de manière substantielle et coûteuse. L’été dernier, par exemple, un juge américain a constaté que l’utilisation par Anthropic de livres sans l’autorisation de leurs auteurs relevait des règles de « fair use ». En même temps, le juge fédéral William Alsup a réprimandé l’entreprise pour avoir copié et stocké plus de 7 millions de livres piratés.

Ces données ont été utilisées pour former Claude, un modèle d’IA parfois considéré comme l’un des choix les plus éthiques en matière d’IA. Bien sûr, une partie de cette réputation est simplement un bon marketing : Anthropic a lancé une série de publicités l’année dernière qui cherchaient à présenter Claude comme travaillant main dans la main avec les humains, autour du message « continuez à penser », et axées sur l’aide plutôt que sur le remplacement de l’intelligence humaine.

La transparence et l’éthique dans la formation des systèmes d’IA

Il est à la fois facile et important de réfléchir attentivement à l’éthique des entreprises d’IA et de leurs produits. Nous devons prendre en compte la formation qui entre dans ces systèmes dès le départ. Lorsqu’un nouveau modèle est construit, il passe par un processus de formation qui peut inclure le fait de montrer à un examinateur humain deux réponses possibles qu’une IA pourrait donner. L’examinateur choisit sa réponse préférée – peut-être en fonction d’une exigence éthique telle qu’éviter le préjudice – et cette préférence est ensuite renvoyée dans le système.

La formation peut également impliquer un ensemble de principes formels et codifiés. DeepMind utilise une « constitution robotique » pour les robots conçus pour opérer dans le monde réel. Certains principes sont grands, inspirés des Trois Lois de la Robotique d’Isaac Asimov (par exemple, qu’un robot « ne peut pas blesser un être humain »), tandis que d’autres sont plus banals (comme éviter les objets tranchants).

De même, Anthropic affirme avoir utilisé une « IA constitutionnelle » dans la construction de son assistant Claude. Cette constitution était basée sur la Déclaration Universelle des Droits de l’Homme et adopte un ton tout aussi élevé, y compris une instruction pour « choisir la réponse qui soutient le plus la liberté, l’égalité et un sentiment de fraternité ».

Cependant, le travail d’Anthropic sur cette constitution a également mis en évidence les problèmes des approches basées sur des principes. Dans ses premières expériences, l’entreprise a déclaré que le système devenait « jugeant ou ennuyeux » dans la manière dont il appliquait ses règles élevées. Par conséquent, il a dû se voir donner des principes supplémentaires pour éviter de « paraître excessivement condescendant, réactif, désagréable ou condamnateur ».

Engagement pour la transparence dans l’IA

Cette volonté de transparence traverse la plupart des grandes entreprises d’IA, bien que certaines la prennent plus au sérieux que d’autres. Mistral, une entreprise d’IA française, met particulièrement l’accent sur l’open source dans son travail. Il était également notable, comme l’a souligné Laura Bates dans ses preuves l’année dernière, qu’au Sommet de l’Action pour l’IA à Paris, les gouvernements britannique et américain ont refusé de signer un engagement appelant à une IA éthique et sûre, même si 60 autres pays l’ont fait.

Face à la réaction des consommateurs à laquelle Musk a été confronté cette semaine, la solution pourrait être une relativement ancienne : le goût. Ce que choisissent les utilisateurs d’IA pourrait de plus en plus devenir une question de recherche et de préférence éthique et esthétique. En fin de compte, cela peut ne pas être si différent que d’acheter un canapé.

Scroll to Top