David Sacks compara ‘ai psicose’ à mídia social ‘pânico moral’

A IA pode criar um plano de dieta, organizar um calendário e fornecer respostas a uma variedade infinita de perguntas ardentes. Também pode causar um colapso psiquiátrico?
David SacksA Casa Branca lidera as políticas de IA da América, não pensa assim. A IA do presidente Donald Trump e o czar criptográfico discutiram “Psicose da IA“Durante um episódio do” Podcast All-In “publicado na sexta-feira.
Enquanto a maioria das pessoas se envolve com chatbots sem problemas, um pequeno número de usuários diz que os bots incentivaram ilusões e outros comportamentos preocupantes. Para alguns, o chatgpt serve como uma alternativa a terapeutas profissionais.
Um psiquiatra disse anteriormente ao Business Insider que alguns de seus pacientes exibindo o que foi descrito como “psicose da IA”, um termo não clínico, usou a tecnologia antes de ter problemas de saúde mental “, mas eles se voltaram para ele no lugar errado na hora errada e sobrecarregou algumas de suas vulnerabilidades”.
Durante o podcast, os sacos duvidavam de todo o conceito de “psicose da IA”.
“Quero dizer, do que estamos falando aqui? Pessoas fazendo muita pesquisa?” ele perguntou. “Parece o pânico moral criado nas mídias sociais, mas atualizado para a IA”.
Os sacos então se referiram a um artigo recente com um psiquiatra, que disse que não acreditava que o uso de um chatbot induziu inerentemente a “psicose da IA” se não houver outros fatores de risco – incluindo sociais e genéticos – envolvidos.
“Em outras palavras, isso é apenas uma manifestação ou saída para problemas pré-existentes”, disse Sacks. “Acho justo dizer que estamos no meio de uma crise de saúde mental neste país”.
Sacos atribuíram a crise ao em vez disso Pandemia do covid-19 e bloqueios relacionados. “Foi isso que parece ter desencadeado muitos desses declínios em saúde mental”, disse ele.
Após vários relatos de usuários que sofrem de quebras mentais enquanto usam o ChatGPT, o CEO da Openai, Sam Altman, abordou o problema em X depois que a empresa foi lançada o altamente esperado GPT-5.
“As pessoas usaram a tecnologia, incluindo a IA, de maneiras autodestrutivas; se um usuário está em um estado mentalmente frágil e propenso a ilusão, não queremos que a IA reforce isso”, escreveu Altman. “A maioria dos usuários pode manter uma linha clara entre realidade e ficção ou dramatização, mas uma pequena porcentagem não pode”.
No início deste mês, o OpenAI introduziu salvaguardas no chatgptincluindo um rápido incentivando os usuários a fazer pausas após longas conversas com o chatbot. A atualização também mudará a maneira como o chatbot responde aos usuários que perguntam sobre os desafios pessoais.




