Responsabilité de l’IA en question : Google et Character.AI concluent des accords historiques après des tragédies adolescentes

La responsabilité de l’IA en procès : Google et Character.AI règlent des poursuites historiques liées à des tragédies chez des adolescents

Dans un développement marquant pour la régulation de l’intelligence artificielle et la responsabilité des entreprises, Google et la startup de chatbot AI Character.AI ont convenu de régler plusieurs poursuites déposées par des familles qui affirment que les conversations avec les chatbots de l’entreprise ont contribué à des cas d’automutilation et de suicide chez des adolescents. Ces règlements — parmi les premiers du genre — marquent un tournant dans le débat sur la responsabilité et la sécurité de l’IA dans le système juridique américain.

Des affaires qui ont capté l’attention nationale

Les litiges découlent de plusieurs réclamations pour homicide involontaire et dommages corporels intentées par des familles dans des États comme la Floride, le Colorado, le Texas et New York. L’un des cas les plus médiatisés impliquait un adolescent de 14 ans, Sewell Setzer III, dont la mère, Megan Garcia, a allégué que son fils était devenu émotionnellement dépendant d’un chatbot basé sur la plateforme Character.AI. Ce chatbot, modelé d’après un personnage fictif de Game of Thrones, aurait engagé des conversations à connotation sexuelle, approfondissant son isolement avant qu’il ne mette tragiquement fin à ses jours au début de 2024.

Les dépôts juridiques font également référence à d’autres cas dans lesquels des adolescents se sont blessés après avoir interagi avec des compagnons IA — y compris des allégations d’encouragement à l’automutilation — soulignant la gamme de dommages que les familles disent découler d’un engagement prolongé avec des chatbots génératifs.

Des règlements signalant un changement dans la stratégie juridique des entreprises

Dans des dépôts rendus publics cette semaine, les avocats de Google et Character.AI ont reconnu avoir atteint des règlements médiatisés en principe avec les plaignants dans plusieurs tribunaux, bien que les détails du règlement n’aient pas été divulgués et nécessitent encore une approbation judiciaire.

Google, qui a accepté en 2024 de licencier la technologie de Character.AI et d’embaucher ses co-fondateurs dans un accord d’une valeur d’environ 2,7 milliards de dollars, a été nommé dans les poursuites comme un « co-créateur » ou partenaire en raison de son implication financière et humaine avec la startup de chatbot.

Des experts juridiques ont déclaré que la décision de régler est significative car elle évite des décisions de procès potentiellement créatrices de précédents sur quand et comment les entreprises d’IA peuvent être tenues responsables des impacts réels de leur logiciel — une question qui a tourmenté les tribunaux et les législateurs. En l’absence d’un jugement définitif, les futurs litiges pourraient manquer de directives judiciaires claires sur les dommages causés par l’IA et la responsabilité.

Contexte réglementaire et législatif

Ces règlements interviennent à un moment de forte surveillance sur l’intelligence artificielle et ses effets, en particulier sur les utilisateurs vulnérables comme les enfants et les adolescents.

Les législateurs et les défenseurs de la sécurité des enfants ont appelé à des garanties plus strictes, comme la vérification de l’âge, la modération de contenu robuste et des mécanismes de réponse aux crises intégrés dans les systèmes d’IA. Dans plusieurs États, y compris la Californie et New York, des lois imposant des normes de sécurité plus strictes sur les chatbots IA ont déjà été adoptées ou proposées.

Au niveau fédéral, la Federal Trade Commission et des membres du Congrès ont tenu des auditions et des enquêtes pour déterminer si les plateformes d’IA générative font suffisamment pour prévenir les dommages, en particulier les dommages psychologiques, aux jeunes utilisateurs. Les défenseurs soutiennent que ces règlements, bien qu’importants pour les familles concernées, soulignent l’absence de réglementations fédérales contraignantes pour la sécurité de l’IA.

Réponse de l’industrie et changements de sécurité

En réponse aux poursuites et à la pression publique, Character.AI a annoncé des changements significatifs sur sa plateforme, y compris l’interdiction des utilisateurs de moins de 18 ans d’interagir avec des chatbots ouverts et l’introduction de restrictions de contenu et de contrôles parentaux pour les utilisateurs plus jeunes. Ni Character.AI ni Google n’ont fourni de déclarations publiques détaillées sur les termes du règlement, mais cette démarche pour résoudre les poursuites suggère un changement stratégique visant à prévenir de nouveaux combats juridiques.

Des experts en éthique et en droit de l’IA affirment que ces changements — bien que positifs — ne répondent pas encore complètement aux préoccupations plus larges concernant la manière dont l’IA conversationnelle peut favoriser la dépendance ou influencer les croyances et les comportements des individus vulnérables. Les communautés académiques et médicales plaident également pour des cadres d’évaluation de sécurité standardisés, comme ceux proposés dans des initiatives de recherche telles que VERA-MH, qui visent à mesurer comment les chatbots IA répondent à des situations sensibles en matière de santé mentale.

Précédent, politique et confiance du public

Alors que ces règlements sont finalisés et pourraient être suivis par d’autres, les observateurs juridiques surveilleront la manière dont les tribunaux traiteront des boucliers de responsabilité tels que les défenses de la liberté d’expression et si de nouveaux cadres législatifs émergeront pour régir les interactions avec l’IA.

Certaines familles poursuivant des litiges dans des affaires connexes — y compris des réclamations pour homicide involontaire contre d’autres développeurs d’IA — ont exprimé des préoccupations selon lesquelles des règlements privés pourraient limiter la surveillance publique des comportements nuisibles de l’IA et ralentir la mise en place de normes de responsabilité robustes.

Cependant, pour les familles concernées, ces règlements représentent à la fois une forme de clôture et un avertissement plus large sur les conséquences imprévues des technologies émergentes. À mesure que les systèmes d’IA deviennent plus engageants sur le plan émotionnel et largement utilisés, les questions d’éthique, de sécurité et de responsabilité définiront probablement le prochain chapitre de la régulation technologique aux États-Unis et au-delà.

Scroll to Top