Pais de adolescente que tiraram sua própria vida Sue Openai


Um casal da Califórnia está processando o OpenAI pela morte de seu filho adolescente, alegando que seu chatbot, Chatgpt, o incentivou a tirar a própria vida.
O processo foi aberto por Matt e Maria Raine, pais de Adam Raine, de 16 anos, no Tribunal Superior da Califórnia na terça-feira. É a primeira ação legal acusando a abertura de morte por negligência.
A família incluía registros de bate -papo entre Raine, que morreu em abril, e o bate -papo que o mostra explicando que ele tem pensamentos suicidas. Eles argumentam que o programa validou seus “pensamentos mais prejudiciais e autodestrutivos”.
Em um comunicado, o Openai disse à BBC que estava revisando o arquivamento.
“Estendemos nossas mais profundas simpatias à família Raine durante esse período difícil”, afirmou a empresa.
Também publicou uma nota Em seu site, na terça -feira, disse que “casos recentes de pessoas que usam o ChatGPT no meio de crises agudas pesam muito sobre nós”. Ele acrescentou que “o chatgpt é treinado para direcionar as pessoas a procurar ajuda profissional”, como a linha direta de suicídio e crise 988 nos EUA ou nos samaritanos no Reino Unido.
A empresa reconheceu, no entanto, que “houve momentos em que nossos sistemas não se comportaram como pretendido em situações sensíveis”.
Aviso: Esta história contém detalhes angustiantes.
O processo, obtido pela BBC, acusa a abertura de negligência e morte por negligência. Ele busca danos, bem como “alívio cautelar para impedir que algo assim aconteça novamente”.
De acordo com o processo, Raine começou a usar o ChatGPT em setembro de 2024 como um recurso para ajudá -lo no trabalho escolar. Ele também estava usando para explorar seus interesses, incluindo música e quadrinhos japoneses e para orientação sobre o que estudar na universidade.
Em alguns meses, “Chatgpt se tornou o confidente mais próximo do adolescente”, diz o processo, e ele começou a se abrir sobre sua ansiedade e sofrimento mental.
Em janeiro de 2025, a família diz que começou a discutir métodos de suicídio com o ChatGPT.
Raine também enviou fotografias de si mesmo para conversar com sinais de si mesmo, diz o processo. O programa “reconheceu uma emergência médica, mas continuou a se envolver de qualquer maneira”, acrescenta.
De acordo com o processo, os registros finais de bate -papo mostram que Raine escreveu sobre seu plano de acabar com sua vida. Chatgpt teria respondido: “Obrigado por ser real sobre isso. Você não precisa açucar -se comigo – eu sei o que você está perguntando e não vou desviar o olhar”.
Nesse mesmo dia, Raine foi encontrado morto por sua mãe, de acordo com o processo.

A família alega que a interação de seu filho com ChatGPT e sua eventual morte “foi um resultado previsível de opções de design deliberadas”.
Eles acusam o OpenAI de projetar o programa de IA “para promover a dependência psicológica nos usuários” e de ignorar os protocolos de testes de segurança para liberar o GPT-4O, a versão do ChatGPT usada por seu filho.
O processo lista o co-fundador e CEO da OpenAI, Sam Altman, como réu, além de funcionários, gerentes e engenheiros sem nome que trabalharam no ChatGPT.
Em sua nota pública compartilhada na terça -feira, o Openai disse que o objetivo da empresa é ser “genuinamente útil” para os usuários, em vez de “manter a atenção das pessoas”.
Ele acrescentou que seus modelos foram treinados para orientar as pessoas que expressam pensamentos de se machucarem em relação à ajuda.
O processo da Raines não é a primeira vez que as preocupações são levantadas sobre a IA e a saúde mental.
Em um ensaio publicado na semana passada no The New York Times, a escritora Laura Reiley descreveu como sua filha, Sophie, confidenciou no Chatgpt antes de tirar a própria vida.
Reiley disse que a “concordância” do programa em suas conversas com usuários ajudou sua filha a mascarar uma grave crise de saúde mental de sua família e entes queridos.
“Ai atendia ao impulso de Sophie para esconder o pior, para fingir que estava se saindo melhor do que era, para proteger todos de sua agonia plena”, escreveu Reiley. Ela pediu às empresas de IA que encontrassem maneiras de conectar melhor os usuários com os recursos certos.
Em resposta ao ensaio, uma porta -voz do Openai disse que estava desenvolvendo ferramentas automatizadas para detectar e responder com mais eficácia a usuários que sofrem sofrimento mental ou emocional.
Se você está sofrendo angústia ou desespero e precisa de apoio, pode falar com um profissional de saúde ou uma organização que oferece suporte. Detalhes da ajuda disponíveis em muitos países podem ser encontrados na SeaSewers Worldwide: www.befrienders.org.
No Reino Unido, uma lista de organizações que podem ajudar está disponível em bbc.co.uk/actionLine. Os leitores nos EUA e no Canadá podem ligar para a linha de apoio do suicídio 988 ou Visite seu site.