Google sous le feu des critiques concernant l’éthique de l’IA et l’assistance présumée à l’armée israélienne
Google a été accusé d’avoir enfreint ses propres règles éthiques en matière d’intelligence artificielle (IA) en 2024. Un ancien employé a déposé une plainte auprès de la Securities and Exchange Commission des États-Unis, affirmant que la société avait aidé un entrepreneur militaire israélien à analyser des séquences vidéo de drones. Cette accusation soulève des questions sur la manière dont les grandes entreprises technologiques appliquent leurs politiques d’IA en temps de conflit armé.
Contexte de la plainte
La plainte indique que, à l’époque, les principes d’IA de Google interdisaient l’utilisation de cette technologie pour des applications militaires ou de surveillance violant les normes internationales. Selon le plaignant, la division de cloud computing de Google a assisté un client lié à l’armée israélienne, identifiant un problème technique lors de l’utilisation du système d’IA Gemini pour analyser des images aériennes.
Détails de l’incident
Le client, dont le nom correspondait à un employé d’une entreprise technologique israélienne, a contacté le support de Google à propos d’un bogue qui empêchait le logiciel de détecter des objets dans les vidéos, y compris des drones et des soldats. Après plusieurs échanges, le problème s’est résolu de lui-même, mais un autre employé de Google a été impliqué dans la chaîne de courriels, soutenant le compte Google Cloud de l’armée israélienne.
Accusations et défense de Google
La plainte soutient que les actions de Google contredisent ses politiques éthiques en matière d’IA et qu’elles ont induit en erreur les régulateurs et les investisseurs. Le plaignant a fait valoir que Google applique ses règles de manière inégale, particulièrement lors des opérations militaires en Israël et à Gaza. Google a nié ces allégations, affirmant que la demande d’assistance ne violait pas ses politiques d’IA.
Répercussions éthiques
Les critiques soulignent que même un soutien limité peut soulever des préoccupations éthiques. Aider à résoudre des problèmes techniques liés à l’IA utilisée sur des images de drones pourrait encore faciliter des opérations militaires. Google a déclaré que son travail avec le gouvernement israélien ne concernait pas des charges militaires sensibles ou classifiées.
Évolution de la politique de Google sur l’IA
Cette plainte intervient alors que Google a modifié sa position publique sur l’utilisation de l’IA. En février 2025, la société a mis à jour sa politique en matière d’IA, supprimant l’engagement d’éviter l’usage de l’IA pour la surveillance et les armes, affirmant qu’elle avait besoin de flexibilité pour soutenir les gouvernements démocratiquement élus.
Les plaintes déposées auprès de la SEC ne déclenchent pas automatiquement d’enquêtes. Toute personne peut les déposer, et c’est aux régulateurs de décider s’ils souhaitent poursuivre l’action.
