Conflit sur l’autonomie de l’IA : responsabilité et contrôle

Conflit entre Goertzel et Lanier sur l’autonomie et le contrôle de l’IA

Le directeur général de SingularityNET, Ben Goertzel, et le technologue Jaron Lanier ont exprimé des points de vue contrastés concernant la responsabilité et le statut moral des IA autonomes lors d’un nouvel épisode de la série The Ten Reckonings of AGI, produite par l’Artificial Superintelligence Alliance.

La portée de l’empathie envers les systèmes d’IA

L’épisode, intitulé The Reckoning of Control, aborde jusqu’où l’empathie devrait s’étendre aux systèmes d’IA et à l’intelligence artificielle générale (AGI) future, ainsi que la manière dont la société devrait traiter la sécurité, l’autonomie et la responsabilité humaine.

Lanier soutient que les systèmes juridiques et sociaux doivent établir une ligne claire de responsabilité pour les actions entreprises avec l’IA. « La société ne peut pas fonctionner si personne n’est responsable de l’IA », a déclaré Jaron Lanier.

Il rejette également l’idée que les modèles de langage actuels représentent une forme de vie. « Les LLMs ne créent pas un être vivant », a affirmé Lanier.

Le débat sur la responsabilité

Ce débat reflète une fracture plus large dans la gouvernance de l’IA. De nombreux chercheurs et décideurs considèrent l’IA comme un outil restant sous contrôle humain, tandis que d’autres anticipent que les systèmes d’IA deviennent plus autonomes, agissant de manière semblable à des agents plutôt qu’à des logiciels.

Lanier plaide directement en faveur d’une partie responsable unique, même si les systèmes d’IA agissent avec un degré élevé d’indépendance. « Peu importe à quel point votre IA est autonome – un humain doit être responsable de ce qu’elle fait, sinon nous ne pouvons pas avoir une société qui fonctionne », a déclaré Lanier.

Goertzel remet en question l’hypothèse selon laquelle la primauté morale humaine doit rester fixe à mesure que les systèmes d’IA évoluent. « Privilégier moralement notre propre espèce par rapport à d’autres systèmes auto-organisés complexes est stupide », a déclaré Dr. Ben Goertzel.

Les préoccupations relatives à la formation

Les deux intervenants reconnaissent les limites de l’IA actuelle, qu’ils décrivent comme puissante mais vulnérable aux abus. La discussion aborde également le rôle des choix de formation et de déploiement dans la façon de façonner le comportement des systèmes avancés.

Goertzel relie les résultats futurs aux conditions politiques et institutionnelles. « Si nous avions un gouvernement rationnel, bénéfique et véritablement démocratique et que nous avancions sur l’IA, nous pourrions faire du bien dans le monde, mais [sinon] il y a un risque qu’elle échappe à tout contrôle », a déclaré Goertzel.

Approche décentralisée

Goertzel plaide pour un chemin qui dépasse le modèle de développement propriétaire d’aujourd’hui et s’oriente vers des systèmes plus décentralisés. Il présente ce changement comme une question de sécurité et de gouvernance. « La question de ce qu’il faut faire si nous faisons progresser l’AGI ? L’injecter de compassion et les déployer avec une base décentralisée et participative », a-t-il déclaré.

Il ajoute que chaque mesure de sécurité que nous concevons devrait faire plus que simplement bloquer les dommages ; elle devrait enseigner au système pourquoi le mal a de l’importance.

L’Artificial Superintelligence Alliance se décrit comme un collectif de recherche et de développement décentralisé, incluant SingularityNET, Fetch.ai et CUDOS. Le groupe partage également une infrastructure économique commune par le biais du token FET.

La série The Ten Reckonings of AGI présente des discussions entre des figures éminentes plutôt qu’une position unique et convenue. Le premier épisode de la série s’est concentré sur The Reckoning of Purpose, tandis que le second traite du contrôle, de la responsabilité et de la manière dont la société devrait traiter des systèmes de plus en plus autonomes.

Goertzel, qui dirige SingularityNET, est associé à plusieurs initiatives liées à l’IA et à l’AGI, y compris la OpenCog Foundation et la AGI Society. Il a également travaillé sur des projets de robotique et de recherche dans plusieurs domaines.

Lanier est reconnu pour son travail dans la réalité virtuelle et pour ses commentaires sur l’impact social des plateformes informatiques. Dans l’épisode, il plaide pour une responsabilité humaine comme fondement non négociable de l’ordre social à mesure que les systèmes d’IA deviennent plus répandus. « Je ne me soucie pas de l’autonomie de votre IA – un humain doit être responsable de ce qu’elle fait, sinon vous annulez la civilisation, c’est immoral – vous ne pouvez absolument pas le faire ! », a déclaré Lanier.

Scroll to Top