Étude sur les implications d’une nouvelle loi et d’une enquête concernant Grok AI et les deepfakes
Au cœur des débats sur la technologie de l’intelligence artificielle, Grok AI est sous le feu des critiques suite à la génération d’images controversées, y compris des photos sexualisées sans consentement. Cette situation a déclenché une enquête de l’Ofcom, le régulateur britannique des communications, afin de déterminer si Grok a enfreint les lois britanniques sur la sécurité en ligne.
Contexte de l’enquête
Face à l’indignation croissante, l’Ofcom a été sommé d’agir rapidement. Cependant, une enquête approfondie est nécessaire pour éviter les accusations de restriction de la liberté d’expression, qui ont entaché la Online Safety Act depuis son élaboration. Elon Musk, le propriétaire de Grok, a exprimé ses préoccupations en insinuant que le gouvernement britannique cherche à censurer.
Les implications légales
La nouvelle législation en cours d’adoption vise à rendre illégal la création d’images non consensuelles générées par des outils d’IA. Actuellement, bien qu’il soit illégal de partager de telles images, il n’est pas interdit de demander à un outil d’IA de les produire. Cette loi pourrait également interdire aux entreprises de fournir les outils nécessaires à leur création.
La situation est d’autant plus complexe que Grok a récemment été impliqué dans la création d’images sexualisées d’enfants, ce qui a intensifié les appels à la régulation. Les critiques affirment que l’utilisation de l’IA pour déshabiller des individus dans des photos n’est pas une question de liberté d’expression, mais plutôt d’abus.
Défis de la mise en œuvre
Une question cruciale demeure : comment cette nouvelle loi sera-t-elle appliquée ? Grok a été mis en lumière principalement parce qu’il partageait ses résultats sur la plateforme X. Si des utilisateurs choisissent d’utiliser l’outil de manière privée, il sera difficile de détecter toute infraction.
De plus, si la plateforme X est reconnue coupable de violation de la loi, elle pourrait faire face à des amendes allant jusqu’à 10% de ses revenus mondiaux ou 18 millions de livres sterling, selon le montant le plus élevé.
Conséquences politiques
Cette situation pourrait également avoir des ramifications politiques, notamment en ce qui concerne les relations entre le Royaume-Uni et les entreprises technologiques américaines. Les entreprises de technologie, y compris celles qui ont investi massivement dans l’infrastructure d’IA au Royaume-Uni, pourraient réagir négativement à des régulations perçues comme trop restrictives.
Alors que l’Ofcom essaie de naviguer dans ce paysage complexe, il est essentiel qu’il agisse avec prudence pour éviter d’être accusé d’inefficacité. La mise en œuvre de la Online Safety Act est déjà critiquée pour sa lenteur, et les nouvelles régulations sur les deepfakes pourraient être un test décisif pour le régulateur.
En conclusion, les actions entreprises par le gouvernement et l’Ofcom face à Grok AI pourraient redéfinir les contours de l’utilisation de l’intelligence artificielle et des deepfakes au Royaume-Uni, avec des implications qui s’étendent bien au-delà des simples questions de sécurité en ligne.
