Le séminaire de la NSU examine les limites éthiques du modèle d’IA Claude d’Anthropic
La School of Humanities and Social Sciences (SHSS) de la North South University (NSU) a organisé un séminaire facultaire le 5 février portant sur les questions philosophiques et éthiques entourant le modèle d’IA d’Anthropic, Claude.
Intitulé Une critique philosophique de la “Constitution” d’Anthropic pour son modèle d’IA “Claude”, le séminaire a réuni des membres du corps professoral, des universitaires, des chercheurs et des étudiants pour discuter de l’intelligence artificielle, de l’éthique et de la philosophie. La session a été modérée par Md. Mehedi Hasan, maître de conférence au département d’anglais et de langues modernes de la NSU.
Présentation clé par le Prof. Dr. Norman Kenneth Swazo
La présentation principale a été animée par Prof. Dr. Norman Kenneth Swazo, directeur du bureau de recherche et professeur de philosophie au département d’histoire et de philosophie de la NSU. Il a examiné l’approche “constitutionnelle” d’Anthropic pour la gouvernance de l’IA, en se concentrant sur les affirmations selon lesquelles Claude suit des principes éthiques liés à la sécurité, à la vie privée et à l’exactitude.
Le Prof. Swazo a remis en question la capacité de la gouvernance basée sur la constitution à soutenir de manière significative des revendications de raisonnement éthique, de jugement moral ou de conscience dans les systèmes artificiels, en particulier compte tenu de leur manque d’expérience vécue et de conscience contextuelle. Il a soutenu que, bien que les systèmes d’IA puissent simuler un comportement complexe, cela ne constitue pas une véritable conscience.
Questions et réponses
Lors de la session de questions-réponses, les participants ont demandé si les systèmes d’IA guidés par une constitution pouvaient un jour posséder une conscience, étant donné qu’ils reposent sur la reconnaissance de motifs plutôt que sur la compréhension. En réponse, le Prof. Swazo a exprimé son scepticisme, déclarant que la simulation à elle seule ne constitue pas une conscience. Citant le neuroscientifique Anil Seth, il a dit que “la simulation n’est pas l’instanciation”.
D’autres questions ont porté sur les limites de l’apprentissage automatique par rapport à la faillibilité morale humaine et si la société impose une responsabilité éthique excessive aux systèmes d’IA. En abordant les préoccupations concernant la responsabilité lorsque les individus sont influencés par des conseils générés par l’IA, le Prof. Swazo a distingué entre psychose induite par l’IA et psychose associée à l’IA, suggérant que de tels cas sont mieux examinés à travers le prisme de la psychopathologie plutôt que d’attribuer des actions directement aux systèmes artificiels.
Débats sur les droits d’auteur et l’accès au savoir
La discussion a également couvert les droits d’auteur et l’accès au savoir, y compris si les systèmes d’IA formés sur de grands volumes de matériaux disponibles publiquement pourraient avantager les étudiants n’ayant pas accès à certaines ressources académiques. Le Prof. Swazo a déclaré que la base de connaissances de Claude comprend des millions de livres et d’autres matériaux légalement disponibles, tout en notant qu’Anthropic a réglé des poursuites liées à des violations de droits d’auteur. Il a ajouté que des tensions éthiques demeurent dans les débats sur l’accès et l’équité.
Évaluation de l’absence de conscience dans les modèles d’IA
Une autre question a porté sur la façon dont l’absence de conscience dans les modèles d’IA pourrait être évaluée. Le Prof. Swazo a déclaré qu’il est difficile de prouver un négatif, mais a soutenu que le comportement observable montre que le type de “connaissance” détenu par des systèmes comme Claude est insuffisant pour reproduire toute la complexité de la pensée humaine.
Suite à la conférence, Md. Rizwanul Islam, professeur de droit et doyen de la School of Humanities and Social Sciences à la NSU, a déclaré que les cadres éthiques intégrés dans les systèmes d’IA peuvent refléter des biais culturels et idéologiques façonnés par leurs origines socio-culturelles. Il a souligné que la question clé n’est pas seulement de savoir comment ces technologies sont conçues, mais comment les sociétés y répondent et s’engagent de manière critique.
