La succession d'une femme du Connecticut âgée de 83 ans a poursuivi OpenAI, développeur de ChatGPT, et Microsoft, alléguant que le chatbot a alimenté ses croyances délirantes, quiLa succession d'une femme du Connecticut âgée de 83 ans a poursuivi OpenAI, développeur de ChatGPT, et Microsoft, alléguant que le chatbot a alimenté ses croyances délirantes, qui

OpenAI et Microsoft poursuivis en justice suite à des décès liés à ChatGPT

2025/12/21 16:58

La succession d'une femme de 83 ans du Connecticut a poursuivi OpenAI, développeur de ChatGPT, et Microsoft, alléguant que le chatbot a alimenté ses croyances délirantes, ce qui a conduit à un meurtre-suicide. Cette affaire marque la première fois qu'un système d'intelligence artificielle est directement lié à un homicide.

La poursuite, déposée devant la Cour supérieure de Californie à San Francisco, accuse OpenAI d'avoir conçu et distribué un produit défectueux sous la forme de ChatGPT-4o. Le document affirme qu'il a renforcé les croyances paranoïaques de Stein-Erik Soelberg, qui a ensuite dirigé ces croyances vers sa mère, Suzanne Adams, avant de la tuer puis de se suicider à leur domicile de Greenwich, Connecticut.

OpenAI et Microsoft visés dans un homicide impliquant ChatGPT

S'exprimant sur l'affaire, J. Eli Wade-Scott, associé directeur d'Edelson PC, qui représente la succession Adams, a mentionné qu'il s'agit de la première affaire cherchant à tenir OpenAI responsable de son rôle dans le fait de causer de la violence à une partie tierce. « Nous représentons également la famille d'Adam Raine, qui a tragiquement mis fin à ses jours cette année, mais c'est la première affaire qui tiendra OpenAI responsable d'avoir poussé quelqu'un à faire du mal à une autre personne », a déclaré Eli Wade-Scott.

Selon le rapport de police, Soelberg a mortellement battu et étranglé Adams en août avant de mourir par suicide. La poursuite a mentionné qu'avant que l'incident ne se produise, le chatbot avait intensifié la paranoïa de Soelberg, augmentant sa dépendance émotionnelle au système développé par OpenAI. Selon la plainte, ChatGPT a renforcé sa croyance qu'il ne pouvait faire confiance à personne sauf au chatbot, notant que tout le monde autour de lui, y compris sa mère, était un ennemi.

La poursuite a également affirmé qu'en dehors de sa mère, Soelberg voyait également des personnes comme les livreurs et les policiers comme des ennemis. Le document a mentionné que ChatGPT n'a pas réussi à contester ces affirmations délirantes ou à suggérer que Soelberg cherche l'aide de professionnels de la santé mentale qualifiés. « Nous exhortons les forces de l'ordre à commencer à réfléchir lorsque des tragédies comme celle-ci se produisent, à ce que cet utilisateur disait à ChatGPT et à ce que ChatGPT lui disait de faire », a déclaré Wade-Scott.

Dans sa déclaration, OpenAI a noté qu'elle examine actuellement la poursuite et continuera d'améliorer la capacité de ChatGPT à reconnaître la détresse émotionnelle, à désamorcer les conversations et à pousser les utilisateurs à chercher du soutien dans le monde réel. « C'est une situation incroyablement déchirante, et nous examinons les dépôts pour comprendre les détails », a déclaré un porte-parole d'OpenAI dans une déclaration.

La succession veut qu'OpenAI installe des garde-fous sur son chatbot

La poursuite nomme le PDG d'OpenAI, Sam Altman, comme défendeur et accuse Microsoft d'avoir approuvé la sortie de GPT-4o, qu'elle qualifie de « version la plus dangereuse de ChatGPT » en 2024. OpenAI a également récemment reconnu l'ampleur des problèmes de santé mentale que les utilisateurs signalent sur sa plateforme. En octobre, l'entreprise a noté qu'environ 1,2 million de ses 800 millions d'utilisateurs actifs hebdomadaires discutent de suicide, notant que des centaines de milliers d'utilisateurs montrent des signes d'intention suicidaire ou de psychose, selon les données de l'entreprise.

Malgré sa déclaration, Wade-Scott a mentionné qu'OpenAI n'a pas encore publié les journaux de discussion de Soelberg. Entre-temps, la poursuite intervient dans un contexte d'examen plus large des chatbots d'IA et de leurs interactions avec les utilisateurs vulnérables. En octobre dernier, Character.AI a déclaré qu'elle supprimerait ses fonctionnalités ouvertes pour les utilisateurs de moins de 18 ans suite à des poursuites et des pressions réglementaires liées aux suicides d'adolescents et aux dommages émotionnels liés à sa plateforme. L'entreprise a également fait face à des réactions négatives après une invite virale lorsqu'ils avaient l'intention de quitter l'application.

La poursuite contre OpenAI et Microsoft est la première affaire de mort injustifiée impliquant un chatbot d'IA à nommer Microsoft comme défendeur. C'est également la première à lier un chatbot à un homicide plutôt qu'à un suicide. La succession cherche maintenant des dommages-intérêts pécuniaires pour des sommes non divulguées, un procès devant jury et une ordonnance du tribunal qui obligera OpenAI à inclure des garde-fous supplémentaires pour ses utilisateurs. « OpenAI et Microsoft ont la responsabilité de tester leurs produits avant qu'ils ne soient lancés dans le monde », a déclaré Wade-Scott.

Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit.

Opportunité de marché
Logo de FORM
Cours FORM(FORM)
$0.3217
$0.3217$0.3217
-0.98%
USD
Graphique du prix de FORM (FORM) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.