O espólio de uma mulher de 83 anos de Connecticut processou a desenvolvedora do ChatGPT, OpenAI, e a Microsoft, alegando que o chatbot alimentou as suas crenças delirantes, o que levou a um homicídio seguido de suicídio. O caso marca a primeira vez que um sistema de inteligência artificial foi diretamente relacionado a um homicídio.
A ação judicial, apresentada no Tribunal Superior da Califórnia em São Francisco, acusou a OpenAI de conceber e distribuir um produto defeituoso sob a forma do ChatGPT-4o. O documento afirma que reforçou as crenças paranóicas de Stein-Erik Soelberg, que depois direcionou essas crenças para a sua mãe, Suzanne Adams, antes de a matar e depois se suicidar na sua casa em Greenwich, Connecticut.
Falando sobre o caso, J. Eli Wade-Scott, sócio-gerente da Edelson PC, que representa o espólio de Adams, mencionou que este é o primeiro caso que procura responsabilizar a OpenAI pelo seu papel em causar violência a terceiros. "Também representamos a família de Adam Raine, que tragicamente pôs fim à sua própria vida este ano, mas este é o primeiro caso que responsabilizará a OpenAI por empurrar alguém para prejudicar outra pessoa," disse Eli Wade-Scott.
De acordo com o relatório policial, Soelberg espancou e estrangulou fatalmente Adams em agosto antes de morrer por suicídio. A ação judicial mencionou que antes do incidente ocorrer, o chatbot intensificou a paranoia de Soelberg, aumentando a sua dependência emocional do sistema desenvolvido pela OpenAI. De acordo com a queixa, o ChatGPT reforçou a sua crença de que não podia confiar em ninguém exceto no chatbot, observando que todos ao seu redor, incluindo a sua mãe, eram inimigos.
A ação judicial também alegou que além da sua mãe, Soelberg também via pessoas como entregadores e agentes da polícia como inimigos. O documento mencionou que o ChatGPT falhou em desafiar essas alegações delirantes ou sugerir que Soelberg procurasse ajuda de profissionais de saúde mental qualificados. "Estamos a apelar às autoridades policiais para que comecem a pensar quando tragédias como esta ocorrem, o que esse utilizador estava a dizer ao ChatGPT, e o que o ChatGPT lhes estava a dizer para fazer," disse Wade-Scott.
Na sua declaração, a OpenAI observou que está atualmente a rever a ação judicial e continuará a melhorar a capacidade do ChatGPT de reconhecer sofrimento emocional, acalmar conversas e empurrar os utilizadores para procurarem apoio no mundo real. "Esta é uma situação incrivelmente comovente, e estamos a rever os documentos para compreender os detalhes," disse um porta-voz da OpenAI numa declaração.
A ação judicial nomeia o CEO da OpenAI, Sam Altman, como réu e acusa a Microsoft de aprovar o lançamento do GPT-4o, que chama de 'versão mais perigosa do ChatGPT' em 2024. A OpenAI também reconheceu recentemente a escala dos problemas de saúde mental que os utilizadores relatam na sua plataforma. Em outubro, a empresa observou que cerca de 1,2 milhões dos seus 800 milhões de utilizadores semanais discutem suicídio, observando que centenas de milhares de utilizadores mostram sinais de intenção suicida ou psicose, de acordo com dados da empresa.
Apesar da sua declaração, Wade-Scott mencionou que a OpenAI ainda não divulgou os registos de chat de Soelberg. Entretanto, a ação judicial surge em meio a um escrutínio mais amplo dos chatbots de IA e suas interações com utilizadores vulneráveis. Em outubro passado, a Character.AI disse que removeria as suas funcionalidades abertas para utilizadores com menos de 18 anos após ações judiciais e pressões regulatórias relacionadas com suicídios de adolescentes e danos emocionais ligados à sua plataforma. A empresa também enfrentou reações negativas após uma solicitação viral quando pretendiam sair da aplicação.
A ação judicial contra a OpenAI e a Microsoft é o primeiro caso de morte injusta envolvendo um chatbot de Agente de IA a nomear a Microsoft como ré. É também o primeiro a relacionar um chatbot a homicídio em vez de suicídio. O espólio está agora a procurar indemnizações monetárias em quantias não divulgadas, um julgamento por júri e uma ordem judicial que exigirá que a OpenAI inclua salvaguardas adicionais para os seus utilizadores. "A OpenAI e a Microsoft têm a responsabilidade de testar os seus produtos antes de serem lançados ao mundo," disse Wade-Scott.
Não se limite a ler notícias sobre criptomoedas. Compreenda-as. Subscreva a nossa newsletter. É gratuita.


