Negócios

David Sacks compara ‘ai psicose’ à mídia social ‘pânico moral’

A IA pode criar um plano de dieta, organizar um calendário e fornecer respostas a uma variedade infinita de perguntas ardentes. Também pode causar um colapso psiquiátrico?

David SacksA Casa Branca lidera as políticas de IA da América, não pensa assim. A IA do presidente Donald Trump e o czar criptográfico discutiram “Psicose da IA“Durante um episódio do” Podcast All-In “publicado na sexta-feira.

Enquanto a maioria das pessoas se envolve com chatbots sem problemas, um pequeno número de usuários diz que os bots incentivaram ilusões e outros comportamentos preocupantes. Para alguns, o chatgpt serve como uma alternativa a terapeutas profissionais.

Um psiquiatra disse anteriormente ao Business Insider que alguns de seus pacientes exibindo o que foi descrito como “psicose da IA”, um termo não clínico, usou a tecnologia antes de ter problemas de saúde mental “, mas eles se voltaram para ele no lugar errado na hora errada e sobrecarregou algumas de suas vulnerabilidades”.

Durante o podcast, os sacos duvidavam de todo o conceito de “psicose da IA”.

“Quero dizer, do que estamos falando aqui? Pessoas fazendo muita pesquisa?” ele perguntou. “Parece o pânico moral criado nas mídias sociais, mas atualizado para a IA”.

Os sacos então se referiram a um artigo recente com um psiquiatra, que disse que não acreditava que o uso de um chatbot induziu inerentemente a “psicose da IA” se não houver outros fatores de risco – incluindo sociais e genéticos – envolvidos.

“Em outras palavras, isso é apenas uma manifestação ou saída para problemas pré-existentes”, disse Sacks. “Acho justo dizer que estamos no meio de uma crise de saúde mental neste país”.

Sacos atribuíram a crise ao em vez disso Pandemia do covid-19 e bloqueios relacionados. “Foi isso que parece ter desencadeado muitos desses declínios em saúde mental”, disse ele.

Após vários relatos de usuários que sofrem de quebras mentais enquanto usam o ChatGPT, o CEO da Openai, Sam Altman, abordou o problema em X depois que a empresa foi lançada o altamente esperado GPT-5.

“As pessoas usaram a tecnologia, incluindo a IA, de maneiras autodestrutivas; se um usuário está em um estado mentalmente frágil e propenso a ilusão, não queremos que a IA reforce isso”, escreveu Altman. “A maioria dos usuários pode manter uma linha clara entre realidade e ficção ou dramatização, mas uma pequena porcentagem não pode”.

No início deste mês, o OpenAI introduziu salvaguardas no chatgptincluindo um rápido incentivando os usuários a fazer pausas após longas conversas com o chatbot. A atualização também mudará a maneira como o chatbot responde aos usuários que perguntam sobre os desafios pessoais.



Source link

Artigos Relacionados

Botão Voltar ao Topo