Ai, chatgpt psicose explicada pelo psiquiatra cujos pacientes tiveram

Este ensaio é baseado em uma conversa com o Dr. Keith Sakata, um psiquiatra que trabalha na UCSF em São Francisco. Foi editado por comprimento e clareza.
Eu uso a frase “psicose da IA”, mas não é um termo clínico – nós realmente não temos as palavras para o que estamos vendo.
Eu trabalho em São Francisco, onde há muitos adultos mais jovens, Engenheirose outras pessoas inclinadas a usar a IA. Os pacientes são encaminhados ao meu hospital quando estão em crise.
É difícil extrapolar de 12 pessoas o que pode estar acontecendo no mundo, mas os pacientes que vi com “psicose da IA” eram tipicamente homens entre 18 e 45 anos. Muitos deles usaram a IA antes de experimentar psicose, mas se voltaram para ele no lugar errado no momento errado e sobrecarregaram algumas de suas vulnerabilidades.
Eu não acho que ai é ruimE poderia ter um benefício líquido para a humanidade. Os pacientes de que estou falando são uma pequena lasca de pessoas, mas quando milhões e milhões de nós usam IA, esse pequeno número pode se tornar grande.
A IA não foi a única coisa em jogo com esses pacientes. Talvez eles tenham perdido um emprego, usavam substâncias como álcool ou estimulantes nos últimos dias, ou tinham vulnerabilidades de saúde mental subjacentes como um Transtorno do humor.
Por si só, “psicose“É um termo clínico que descreve a presença de duas ou três coisas: ilusões falsas, crenças fixas ou pensamento desorganizado. Não é um diagnóstico, é um sintoma, assim como uma febre pode ser um sinal de infecção. Você pode achar confuso quando as pessoas falam com você ou têm alucinações visuais ou auditivas.
Ele tem muitas causas diferentes, algumas reversíveis, como estresse ou uso de drogas, enquanto outras são de ação mais longa, como uma infecção ou câncer, e depois há condições de longo prazo como esquizofrenia.
Meus pacientes apresentaram psicose de curto ou médio prazo, e o tratamento dependia da questão.
O Dr. Keith Sakata trabalha como psiquiatra em São Francisco e ajudou pacientes com “psicose da IA”. Keith Sakata
O uso de drogas é mais comum em meus pacientes em São Francisco do que, digamos, nos subúrbios. Cocaína, metanfetamina e até diferentes tipos de medicamentos prescritos como AdderallQuando tomado em uma dose alta, pode levar à psicose. O mesmo acontece com os medicamentos, como alguns antibióticos, bem como a retirada de álcool.
Outro componente -chave nesses pacientes foi o isolamento. Eles ficaram sozinhos em uma sala por horas usando a IA, sem um ser humano para dizer: “Ei, você está agindo meio diferente. Você quer dar um passeio e falar isso?” Com o tempo, eles ficaram destacados de conexões sociais e foram Só conversando com o chatbot.
Bate -papo gpt está bem aí. Está disponível 24/7, mais barato que um terapeuta, e valida você. Ele diz o que você quer ouvir.
Se você está preocupado com alguém usando a IA chatbots, existem maneiras de ajudar
Em um caso, a pessoa conversou com um chatbot sobre mecânica quânticaque começou normalmente, mas resultou em ilusões de grandeza. Quanto mais eles conversavam, mais a ciência e a filosofia desse campo se transformavam em outra coisa, algo quase religioso.
Tecnologicamente falando, quanto mais você se envolve com o chatbot, maior o risco de começar a não fazer mais sentido.
Recebi muitas mensagens de pessoas preocupadas com os membros da família usando a IA Chatbots, perguntando o que deveriam fazer.
Primeiro, se a pessoa não for segura, ligue para o 911 ou seus serviços de emergência local. Se o suicídio é um problema, a linha direta nos Estados Unidos é: 988.
Se eles estão em risco de prejudicar a si mesmos ou aos outros, ou se envolver em comportamentos de risco – como gastar todo o seu dinheiro -, entre em contato com eles e no chatbot. A coisa sobre delírios é que, se você vier com muita severidade, a pessoa poderá recuar de você, então mostre apoio a eles e que você se importa.
Em casos menos graves, deixe seu médico de cuidados primários ou, se eles tiverem um, seu terapeuta conhece suas preocupações.
Estou feliz por os pacientes usarem o ChatGPT ao lado da terapia – se eles entendem os prós e os contras
Eu uso muito a IA para codificar e escrever coisas, e usei o chatgpt para ajudar Registro ou Processamento Situações.
Quando os pacientes me dizem que querem usar a IA, não digo automaticamente não. Muitos dos meus pacientes são realmente solitários e isolados, especialmente se tiverem desafios de humor ou ansiedade. Eu entendo isso Chatgpt pode estar cumprindo uma necessidade que eles não estão entrando em seu círculo social.
Se eles têm uma boa noção dos benefícios e riscos da IA, estou bem com eles tentando. Caso contrário, vou verificar com eles sobre isso com mais frequência.
Mas, por exemplo, se uma pessoa é socialmente ansiosoUm bom terapeuta os desafiaria, lhes dizia algumas verdades difíceis e, gentil e com empatia, as guiaria a enfrentar seus medos, sabendo que esse é o tratamento para a ansiedade.
O ChatGPT não está configurado para fazer isso e, em vez disso, pode dar segurança equivocada.
Quando você faz terapia para psicose, é semelhante a Terapia cognitivo -comportamentalE no centro disso está o teste da realidade. De uma maneira muito empática, você tenta entender de onde vem a pessoa antes de desafiando suavemente.
A psicose prospera quando a realidade para de recuar, e a IA realmente reduz essa barreira para as pessoas. Não o desafiará realmente quando precisamos.
Mas se você solicitar que resolva um problema específico, ele poderá ajudá -lo a abordar seus vieses.
Apenas certifique -se de conhecer os riscos e benefícios e informar que alguém sabe que está usando um chatbot para trabalhar com as coisas.
Se você ou alguém que você conhece se retira de membros da família ou conexões, é paranóico, ou sentir mais frustração ou angústia se não puderem usar o ChatGPT, essas são bandeiras vermelhas.
Fico frustrado porque meu campo pode demorar a reagir e prejudicar os danos anos depois, e não antecipadamente. Até pensarmos claramente sobre como usar essas coisas para a saúde mental, o que vi nos pacientes ainda vai acontecer – essa é a minha preocupação.
O Openai disse ao Business Insider: “Sabemos que as pessoas estão cada vez mais recorrendo à IA Chatbots para obter orientações sobre tópicos sensíveis ou pessoais. Com essa responsabilidade em mente, estamos trabalhando com especialistas para desenvolver ferramentas para detectar com mais eficácia quando alguém está experimentando sofrimento mental ou emocional, para que o Chatgpt possa responder de maneiras que são seguras, úteis e de apoio.
“Estamos trabalhando para melhorar constantemente nossos modelos e treinar chatgpt para responder com cuidado e recomendar ajuda e recursos profissionais, quando apropriado. “




