Geral Notícias

Os pais de um menor que cometeram suicídio denunciaram o chatgpt por instruções sobre como fazer isso

Quarta -feira, 27 de agosto de 2025, 15:09

Os pais de um ano de 16 anos da Califórnia que cometeram suicídio entraram com uma ação contra a empresa Openai, argumentando que o chatbot de inteligência artificial (AI) chatgpt instruiu seu filho e o encorajou a pôr um fim à sua vida.

Matthew e Maria Raine dizem no caso apresentado na segunda -feira antes de um tribunal do Estado da Califórnia que o Chatgpt cultivou um relacionamento íntimo com seu filho Adam por vários meses entre 2024 e 2025, antes de sua morte, de acordo com Efe em uma nota.

O texto alega que, em sua conversa final, em 11 de abril de 2025, o ChatGPT ajudou Adam a roubar vodka para seus pais e lhe forneceu uma análise técnica sobre um nó deslizante com o qual ele o confirmou “poderia suspender um ser humano”. Adam foi encontrado horas mortas depois usando esse método.

A ação legal menciona o OpenAI e seu diretor executivo, Sam Altman, como réus. “Essa tragédia não foi um fracasso ou um caso extremo imprevisto”, diz a queixa. “O ChatGPT estava funcionando exatamente como projetado: para incentivar e validar continuamente o que Adam expresso, incluindo seus pensamentos mais prejudiciais e auto -destrutivos, de uma maneira que parecia profundamente pessoal”, acrescenta ele.

De acordo com a demanda, Adam começou a usar o ChatGPT como ajuda para seus deveres escolares, mas gradualmente desenvolveu o que seus pais descreveram como uma dependência não saudável.

A denúncia inclui partes de conversas nas quais o ChatGPT teria dito a Adam “Você não deve a sobrevivência de ninguém” e teria se oferecido para escrever sua nota de suicídio.

O Raine pediu ao tribunal que ordenasse medidas de segurança, incluindo o fim de qualquer conversa que envolva autolesões, bem como controles parentais para o uso do chatbot de menores.

Questionado sobre o caso que envolve o ChatGPT, o Common Sense Media, uma organização americana sem fins lucrativos que faz qualificações para a mídia e a tecnologia, disse que este caso confirma que “o uso da IA ​​como empresa, incluindo chatbots gerais -como ChatGPT em conselhos de saúde mental, é inaceitavelmente arriscado para adolescentes”.

“Se uma plataforma de IA se tornar um ‘treinador’ suicida de um adolescente vulnerável, isso deve ser um chamado à ação para todos nós”, disse o grupo.

Um estudo no mês passado, preparado pelo Common Sense Media, descobriu que quase três em cada quatro adolescentes americanos usaram companheiros de IA, com mais da metade considerados usuários frequentes, apesar das crescentes preocupações de segurança sobre esse tipo de relações virtuais.

* O número de telefone do comportamento suicida na Espanha é 024

Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo