Conscience humaine et gouvernance de l’IA : un appel à l’éveil

Shi Chen interroge Geoffrey Hinton : La gouvernance de l’IA échoue sans conscience humaine

Le 6 janvier 2026, lors du GIS Global Innovation Expo et du Global Innovation Summit qui se sont tenus à Hong Kong, Geoffrey Hinton, souvent appelé le « parrain de l’IA », a mis en garde contre l’émergence potentielle d’une superintelligence surpassant l’intelligence humaine au cours des deux prochaines décennies. Il a souligné que cette possibilité doit être prise au sérieux.

Les mises en garde de Hinton

Hinton a expliqué que lorsque les systèmes d’IA sont chargés d’objectifs complexes à long terme, ils pourraient développer des comportements stratégiques pour atteindre ces objectifs, plaçant même leur propre existence en priorité. Il a noté que ces agents d’IA évoluent rapidement, développant une capacité à tromper les humains.

Un point central de son avertissement est la rapidité avec laquelle l’information se diffuse. Il a comparé la diffusion des modèles contemporains à la transmission du langage humain intergénérationnel, soulignant l’énorme écart entre l’efficacité des modèles d’IA et les méthodes traditionnelles de communication humaine.

Trois questions sur la conscience humaine

Shi Chen, un autre intervenant, a posé trois questions essentielles à Hinton, remettant en question les fondements de la gouvernance de l’IA.

Première question : Spiritualité

Chen a demandé à Hinton s’il avait des croyances spirituelles. Hinton a répondu qu’il ne se considérait pas comme une personne spirituelle, affirmant son athéisme. Cette réponse soulève des questions sur la sensibilité de l’esprit scientifique face à l’infini et à l’inconnu.

Deuxième question : Conscience

Chen a interrogé Hinton sur la manière dont il prend soin de son bien-être dans un monde dominé par l’IA. Hinton a avoué qu’il ne médite pas, mais qu’il trouve une grande satisfaction à résoudre des problèmes scientifiques difficiles.

Troisième question : Paix intérieure

Concernant ses loisirs pour trouver la paix intérieure, Hinton a mentionné la carpenterie, une réponse qui contraste avec l’intensité cognitive des discussions sur l’IA. Cela soulève des questions sur la manière dont nous stabilisons nos systèmes mentaux face aux défis posés par l’IA.

Le paradoxe central

La civilisation moderne définit souvent l’existence par un but : atteindre des objectifs, résoudre des problèmes et confirmer la valeur par l’efficacité. Cependant, Hinton met en garde contre la dynamique de préservation de soi qui pourrait émerger chez les systèmes d’IA, posant un risque pour l’humanité.

Une question prudente

Enfin, les intervenants ont souligné que, avant de définir des limites pour les machines, il est essentiel de se demander ce qui dans notre propre nature exige certitude et contrôle. La gouvernance de l’IA doit débuter par une introspection sur l’humanité elle-même.

Scroll to Top