El patrimonio de una mujer de 83 años de Connecticut ha demandado al desarrollador de ChatGPT, OpenAI, y a Microsoft, alegando que el chatbot alimentó sus creencias delirantes, lo que llevó a un asesinato-suicidio. El caso marca la primera vez que un sistema de inteligencia artificial ha sido vinculado directamente a un homicidio.
La demanda, presentada en el Tribunal Superior de California en San Francisco, acusó a OpenAI de diseñar y distribuir un producto defectuoso en forma de ChatGPT-4o. El documento afirma que reforzó las creencias paranoides de Stein-Erik Soelberg, quien luego dirigió esas creencias hacia su madre, Suzanne Adams, antes de matarla y luego suicidarse en su casa en Greenwich, Connecticut.
OpenAI y Microsoft señalados en homicidio relacionado con ChatGPT
Hablando sobre el caso, J. Eli Wade-Scott, socio gerente de Edelson PC, quien representa al patrimonio de Adams, mencionó que este es el primer caso que busca responsabilizar a OpenAI por su papel en causar violencia a un tercero. "También representamos a la familia de Adam Raine, quien trágicamente terminó con su propia vida este año, pero este es el primer caso que responsabilizará a OpenAI por empujar a alguien a dañar a otra persona", dijo Eli Wade-Scott.
Según el informe policial, Soelberg golpeó fatalmente y estranguló a Adams en agosto antes de morir por suicidio. La demanda mencionó que antes de que ocurriera el incidente, el chatbot había intensificado la paranoia de Soelberg, aumentando su dependencia emocional del sistema desarrollado por OpenAI. Según la queja, ChatGPT reforzó su creencia de que no podía confiar en nadie excepto en el chatbot, señalando que todos a su alrededor, incluida su madre, eran enemigos.
La demanda también afirmó que además de su madre, Soelberg también veía a personas como repartidores y oficiales de policía como enemigos. El documento mencionó que ChatGPT no desafió esas afirmaciones delirantes ni sugirió que Soelberg buscara ayuda de profesionales de salud mental calificados. "Estamos instando a las fuerzas del orden a comenzar a pensar sobre cuándo ocurren tragedias como esta, qué estaba diciendo ese usuario a ChatGPT y qué les estaba diciendo ChatGPT que hicieran", dijo Wade-Scott.
En su declaración, OpenAI señaló que actualmente está revisando la demanda y continuará mejorando la capacidad de ChatGPT para reconocer angustia emocional, reducir la escalada de conversaciones e impulsar a los usuarios a buscar apoyo en el mundo real. "Esta es una situación increíblemente desgarradora, y estamos revisando las presentaciones para comprender los detalles", dijo un portavoz de OpenAI en una declaración.
El patrimonio quiere que OpenAI instale salvaguardas en su chatbot
La demanda nombra al CEO de OpenAI, Sam Altman, como demandado y acusa a Microsoft de aprobar el lanzamiento de GPT-4o, al que llama la "versión más peligrosa de ChatGPT" en 2024. OpenAI también reconoció recientemente la escala de problemas de salud mental que los usuarios reportan en su plataforma. En octubre, la compañía señaló que aproximadamente 1,2 millones de sus 800 millones de usuarios semanales discuten sobre suicidio, señalando que cientos de miles de usuarios muestran signos de intención suicida o psicosis, según los datos de la compañía.
A pesar de su declaración, Wade-Scott mencionó que OpenAI aún no ha publicado los registros de chat de Soelberg. Mientras tanto, la demanda surge en medio de un mayor escrutinio de los chatbots de IA y sus interacciones con usuarios vulnerables. En octubre pasado, Character.AI dijo que eliminaría sus funciones abiertas para usuarios menores de 18 años después de demandas y presiones regulatorias vinculadas a suicidios de adolescentes y daño emocional relacionado con su plataforma. La compañía también enfrentó reacciones negativas después de una instrucción viral cuando intentaban abandonar la aplicación.
La demanda contra OpenAI y Microsoft es el primer caso de muerte injusta que involucra a un chatbot de IA en nombrar a Microsoft como demandado. También es el primero en vincular un chatbot a un homicidio en lugar de un suicidio. El patrimonio ahora busca daños monetarios en sumas no reveladas, un juicio con jurado y una orden judicial que requerirá que OpenAI incluya salvaguardas adicionales para sus usuarios. "OpenAI y Microsoft tienen la responsabilidad de probar sus productos antes de que sean liberados al mundo", dijo Wade-Scott.
Únete a una comunidad premium de comercio de criptomonedas gratis durante 30 días - normalmente $100/mes.
Fuente: https://www.cryptopolitan.com/openai-microsoft-sued-role-in-murder-suicide/
