Conflit sur la régulation de l’IA : Schmidt contre Sweeney

EXCLUSIF : Eric Schmidt, ancien PDG de Google, s’oppose à l’ancien CTO de la FTC sur la réglementation de l’IA

Lors d’une discussion animée avec des chercheurs en IA de premier plan, Eric Schmidt, l’homme d’affaires américain qui a occupé le poste de PDG de Google de 2001 à 2011, a soutenu que les systèmes d’IA peuvent développer des comportements inattendus qui limitent la capacité des entreprises comme Google à mettre en œuvre des mécanismes de sécurité et de gouvernance préventifs dans leurs produits.

Le problème de la réglementation des modèles d’IA avancés

Un problème central de la réglementation des modèles d’IA de pointe est que, parfois, « une nouvelle fonctionnalité émerge dans ces systèmes qui n’est pas testée, ni testable », a déclaré Schmidt lors du débat annuel en mémoire d’Isaac Asimov, modéré par le physicien Neil deGrasse Tyson à Manhattan.

« Nous pouvons arrêter [l’émergence de nouvelles fonctionnalités ou comportements], et donc arrêter tout progrès, par la loi, en interdisant des modèles plus grands », a-t-il ajouté. « Mais tant que vous avez ce nouveau pouvoir émergent, vous avez un raisonnement profond, des capacités profondes, et ils feront des erreurs. Vous devez être tolérant. »

Responsabilité des développeurs d’IA

Schmidt, qui a également été président de la société mère de Google, Alphabet, de 2015 à 2017, a soutenu l’acquisition de DeepMind en 2014, l’unité qui abrite maintenant les recherches en IA les plus avancées de Google.

Il a déclaré que les développeurs d’IA, comme Google et d’autres, « devraient être tenus responsables » s’ils sont reconnus en violation de la loi, mais a souligné que ces développeurs doivent souvent expédier des produits d’IA et corriger rétroactivement des comportements indésirables qu’ils n’avaient pas prévus à mesure que les modèles évoluent.

« J’ai traversé cela lorsque j’étais chez Google, dans les versions antérieures de la technologie [IA de Google], où le système faisait en réalité quelque chose de faux, et nous l’avons corrigé. Et nous l’avons corrigé aussi rapidement que possible, parce que nous devions, parce que c’était la chose à faire », a-t-il déclaré.

Les doutes de Latanya Sweeney

Latanya Sweeney, professeure de gouvernement et de technologie à Harvard et ancienne CTO de la FTC, a contesté la suggestion selon laquelle les dirigeants de l’IA se conformeraient facilement aux réglementations. Elle a affirmé que les grandes entreprises technologiques ont prouvé maintes fois qu’elles ignoraient les réglementations clés ou tentaient de contourner la loi pour leurs intérêts commerciaux.

« La technologie ignore simplement [les lois] et les réécrit. C’est vrai dans les médias sociaux. C’est vrai dans l’IA aussi », a déclaré Sweeney à Schmidt. « Nous avons déjà des lois qui traitent des problèmes de biais, de protection des consommateurs, etc. Aucune de celles-ci n’est appliquée en ligne. »

Les risques actuels de l’IA

Sweeney a suggéré que la réduction des risques associés à l’IA, y compris les préjudices algorithmiques et les biais encodés dans les systèmes d’IA à partir de leurs données d’entraînement, nécessite des changements plus fondamentaux plutôt que des corrections ex-post.

« Il y a des questions sur les dommages existentiels dans le futur, mais il y a beaucoup de dommages qui se produisent en ce moment. Et cela ne doit pas être ainsi… Cela dépend de qui cette IA sert, et en particulier, du design de la technologie – les décisions prises dans ce design déterminent vraiment nos valeurs », a-t-elle déclaré.

Les défis de gouvernance de l’IA

Schmidt a rétorqué que tous les préjudices ne pourraient pas être prévenus par un meilleur design et une meilleure formation, arguant que les principaux programmes d’IA ne sont pas de simples machines mais des systèmes complexes et non linéaires qui développent souvent des capacités imprévues. Cependant, il a convenu avec Sweeney que les dirigeants de la Silicon Valley ont parfois « précipité » des produits sur le marché, ajoutant : « Ils ont trouvé toutes sortes de problèmes, et ensuite ils sont occupés à les corriger. Je pense que c’est le cycle, et c’est très difficile. »

Les mesures de sécurité en place

Heureusement, il a déclaré que les développeurs d’IA disposent de cartes d’évaluation et d’équipes de test de sécurité pour atténuer autant de risques que possible à l’avance. Mais ces mesures sont insuffisantes pour protéger l’humanité, selon un autre participant, Nate Soares, président de l’Institut de recherche sur l’intelligence machine à Berkeley, Californie.

Soares a exprimé une préoccupation urgente concernant l’avenir de l’IA pour la même raison que Schmidt a trouvé la technologie trop difficile à gouverner : parce que les modèles d’IA de pointe ont tendance à agir de manière non explicitement conçue ou même anticipée par leurs créateurs.

Les bénéfices de l’IA

Schmidt a soutenu que les bénéfices de l’IA l’emporteront finalement sur les risques, en désaccord avec les arguments avancés par Sweeney, Soares et d’autres universitaires sur scène.

« Les entreprises qui font ce travail sont bien conscientes des dangers, et je le sais parce que je travaille avec elles là-dessus, et nous passons énormément de temps à en parler », a déclaré Schmidt. « Nous pouvons parler de certains d’entre eux, mais cela ne doit pas diminuer l’énorme bénéfice de ces technologies. »

Schmidt, deGrasse, Sweeney et Soares ont été rejoints sur scène par Kate Crawford, professeure d’IA à l’Université de Californie du Sud, Chris Callison-Burch, professeur d’informatique à l’Université de Pennsylvanie, et Cindy Rush, statisticienne enseignant à l’Université de Columbia.

Scroll to Top