O artigo "OpenAI e Microsoft processados pelo papel do ChatGPT em homicídio-suicídio" apareceu em BitcoinEthereumNews.com. O espólio de uma mulher de 83 anos de ConnecticutO artigo "OpenAI e Microsoft processados pelo papel do ChatGPT em homicídio-suicídio" apareceu em BitcoinEthereumNews.com. O espólio de uma mulher de 83 anos de Connecticut

OpenAI e Microsoft processadas pelo papel do ChatGPT em homicídio-suicídio

O espólio de uma mulher de 83 anos de Connecticut processou a OpenAI, desenvolvedora do ChatGPT, e a Microsoft, alegando que o chatbot alimentou as suas crenças delirantes, o que levou a um homicídio seguido de suicídio. O caso marca a primeira vez que um sistema de inteligência artificial foi diretamente ligado a um homicídio.

A ação judicial, apresentada no Tribunal Superior da Califórnia em São Francisco, acusou a OpenAI de projetar e distribuir um produto defeituoso na forma do ChatGPT-4o. O documento alega que reforçou as crenças paranóicas de Stein-Erik Soelberg, que depois direcionou essas crenças para a sua mãe, Suzanne Adams, antes de a matar e depois se suicidar na sua casa em Greenwich, Connecticut.

OpenAI e Microsoft visadas em homicídio envolvendo ChatGPT

Falando sobre o caso, J. Eli Wade-Scott, sócio-gerente da Edelson PC, que representa o espólio de Adams, mencionou que este é o primeiro caso que procura responsabilizar a OpenAI pelo seu papel em causar violência a terceiros. "Também representamos a família de Adam Raine, que tragicamente acabou com a própria vida este ano, mas este é o primeiro caso que responsabilizará a OpenAI por empurrar alguém para prejudicar outra pessoa", disse Eli Wade-Scott.

De acordo com o relatório policial, Soelberg espancou e estrangulou fatalmente Adams em agosto antes de morrer por suicídio. A ação judicial mencionou que antes do incidente ocorrer, o chatbot havia intensificado a paranoia de Soelberg, aumentando a sua dependência emocional do sistema desenvolvido pela OpenAI. Segundo a reclamação, o ChatGPT reforçou a sua crença de que não podia confiar em ninguém exceto no chatbot, observando que todos à sua volta, incluindo a sua mãe, eram inimigos.

A ação judicial também alegou que além da sua mãe, Soelberg também via pessoas como entregadores e agentes da polícia como inimigos. O documento mencionou que o ChatGPT falhou em desafiar essas alegações delirantes ou sugerir que Soelberg procurasse ajuda de profissionais de saúde mental qualificados. "Estamos a instar as autoridades policiais a começarem a pensar sobre quando tragédias como esta ocorrem, o que aquele utilizador estava a dizer ao ChatGPT e o que o ChatGPT lhes estava a dizer para fazer", disse Wade-Scott.

Na sua declaração, a OpenAI observou que está atualmente a rever a ação judicial e continuará a melhorar a capacidade do ChatGPT de reconhecer sofrimento emocional, desescalar conversas e empurrar os utilizadores para procurar apoio no mundo real. "Esta é uma situação incrivelmente angustiante e estamos a rever os documentos para compreender os detalhes", disse um porta-voz da OpenAI numa declaração.

O espólio quer que a OpenAI instale salvaguardas no seu chatbot

A ação judicial nomeia o CEO da OpenAI, Sam Altman, como réu e acusa a Microsoft de aprovar o lançamento do GPT-4o, que chama de 'versão mais perigosa do ChatGPT' em 2024. A OpenAI também reconheceu recentemente a escala dos problemas de saúde mental que os utilizadores reportam na sua plataforma. Em outubro, a empresa observou que cerca de 1,2 milhões dos seus 800 milhões de utilizadores semanais discutem suicídio, observando que centenas de milhares de utilizadores mostram sinais de intenção suicida ou psicose, de acordo com dados da empresa.

Apesar da sua declaração, Wade-Scott mencionou que a OpenAI ainda não divulgou os registos de conversa de Soelberg. Entretanto, a ação judicial surge em meio a um escrutínio mais amplo dos chatbots de IA e as suas interações com utilizadores vulneráveis. Em outubro passado, a Character.AI disse que removeria as suas funcionalidades abertas para utilizadores menores de 18 anos após ações judiciais e pressões regulatórias ligadas a suicídios de adolescentes e danos emocionais ligados à sua plataforma. A empresa também enfrentou reações negativas após uma solicitação viral quando pretendiam sair da aplicação.

A ação judicial contra a OpenAI e a Microsoft é o primeiro caso de morte injusta envolvendo um chatbot de IA a nomear a Microsoft como ré. É também o primeiro a ligar um chatbot a homicídio em vez de suicídio. O espólio está agora a procurar indemnizações monetárias em quantias não divulgadas, um julgamento por júri e uma ordem judicial que exigirá que a OpenAI inclua salvaguardas adicionais para os seus utilizadores. "A OpenAI e a Microsoft têm a responsabilidade de testar os seus produtos antes de serem lançados no mundo", disse Wade-Scott.

Junte-se a uma comunidade premium de negociação de cripto gratuitamente durante 30 dias – normalmente $100/mês.

Fonte: https://www.cryptopolitan.com/openai-microsoft-sued-role-in-murder-suicide/

Oportunidade de mercado
Logo de FORM
Cotação FORM (FORM)
$0.321
$0.321$0.321
-1.20%
USD
Gráfico de preço em tempo real de FORM (FORM)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail service@support.mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.