Cultura

A dismorfia corporal é uma luta. Ai chatbots está piorando

“Esta é uma apresentação de baixa atratividade, baseada em estrutura óssea fraca, características suaves e ausência de forma ou presença”, diz um Chatgpt mensagem compartilhada em Capturas de tela sobre Reddit. “Você se parece com alguém que desapareceu no fundo de sua própria vida.”

A dura avaliação da aparência do usuário, com base em uma foto que eles haviam enviado para o Ai O chatbot continua com uma lista de “falhas de maior visibilidade”, enquanto isso observando a falta de “recursos de destaque”. O bot finalmente conclui que “você parece um manequim estendido com a cabeça de tamanho errado estalado no topo”, declarando uma “pontuação final de atratividade brutal” de 3,5/10. O usuário explicado que eles haviam solicitado a Chatgpt a ser o mais crítico possível, esperando uma análise mais “honesta”, ou pelo menos suprimir seu tendência à lisonja. O resultado foi violentamente insultuoso, não o tipo de coisa que alguém gostaria de ler sobre si mesmos.

Ou eles fariam? À medida que o mundo se torna cada vez mais dependente de grandes modelos de linguagem para obter assistência com tarefas diárias – Mais da metade dos americanos usaram um, de acordo com uma pesquisa do início deste ano – aplicações diferentes e inesperadas proliferaram. Além de estudantes e professores universitários apoiando -se nos bots para tarefas e classificação e advogados Terceirização de revisão do documento para a IA, há pessoas pedindo chatgpt e ferramentas semelhantes para terapiaAssim, ajudar a se comunicar com seus cônjugesAssim, Conselhos sobre engravidare Iluminação religiosa.

Talvez fosse inevitável, então, que alguns vieram considerar os bots como guias em questões de aparência. A Internet tem uma história longa e sórdida de facilitar o julgamento da aparência, desde sites agora extintos, como Quente ou não para r/amiurlyUm subreddit onde a insegurança pode compartilhar selfies para solicitar opiniões diretamente sobre seus rostos de estranhos. A Facemash, o site que Mark Zuckerberg criou antes do Facebook, ofereceu aos alunos de Harvard a chance de comparar a atratividade de pares randomizados de colegas de classe. No entanto, com a IA, não é outro humano dar feedback – é um conjunto de algoritmos. E há um subconjunto da populhação exclusivamente vulnerável a esse tipo de comentário mecanizado: indivíduos com transtorno dismórfico corporal (BDD), um doença mental em que um paciente obcecam por suas deficiências físicas percebidas e pode se entregar à auto-avaliação constante, desesperada por prova de que não são tão pouco atraentes quanto se imaginam.

Dr. ToniUma psicóloga clínica em Melbourne, na Austrália, especializada em BDD, ficou alarmada ao ouvir quantos de seus clientes estão perguntando aos modelos de IA como eles se parecem e quais aspectos de seus corpos podem ser melhorados. “Está quase chegando em cada sessão”, ela diz Rolling Stone. “Às vezes eles apenas dizem: ‘Se alguém tem um nariz que se parece com isso, ou um rosto que se parece com isso, eles são feios?’ Ou, às vezes, eles estão enviando fotos de si mesmos e pedindo ao Chatgpt para avaliar sua atratividade em 10, diga a eles o quão simétrico é o rosto deles, como ele se encaixa na proporção dourada de atratividade. Tudo isso, como você pode imaginar, é realmente prejudicial para qualquer pessoa, mas principalmente para alguém com distúrbio dismórfico corporal que já tem uma percepção distorcida de como eles são e geralmente procuram certeza disso. ”

“Infelizmente, a IA é outra avenida para os indivíduos alimentarem sua aparência de ansiedade e aumentarem sua angústia”, diz Kitty Newman, diretora administrativa do The the Fundação BDDUma instituição de caridade internacional que apóia a educação e a pesquisa sobre o distúrbio. “Sabemos que indivíduos com BDD são muito vulneráveis ao uso prejudicial da IA, pois geralmente não percebem que têm BDD, uma condição psicológica, mas, em vez disso, estão convencidos de que têm um problema de aparência física. Os altos níveis de vergonha com o BDD tornam mais fácil para os que sofrem de se envolver online do que pessoalmente, a IA ainda mais atraente.”

Pikoos explica que os pacientes com BDD geralmente lidam com uma necessidade compulsiva de garantia, e não é incomum que amigos e familiares fiquem frustrados com eles por perguntar repetidamente se eles parecem bem. Os chatbots, no entanto, são inesgotáveis. “Isso permitirá que você faça as perguntas incessantemente, se precisar”, diz ela, o que pode contribuir para a dependência. De fato, ela acredita que as pessoas com BDD, uma vez que são “isoladas socialmente e podem lutar com a confiança às vezes para alcançar seus amigos”, estão vindo para confiar em bots para seu engajamento e interação social. “Parece que eles podem conversar com alguém”, diz ela. Claro, a tecnologia não é um “alguém”.

Nos fóruns on -line da dismorfia, no entanto, você pode encontrar muitas postagens sobre como o chatgpt é um “LifeSaver”E um ótimo recurso para quando você é“lutando”E afirma que o bot pode fazer você“sinta -se visto. ” Arnav, um homem de 20 anos na Índia, diz Rolling Stone Que ele teve uma conversa positiva com o modelo, na tentativa de entender por que ele sentiu que era “a pessoa mais feia do planeta” e, portanto, desagradável.

“Isso me ajudou a conectar os pontos da minha vida”, diz ele. Arnav contou a Chatgpt sobre sua infância, e o bot concluiu que há muito sofreu um senso irracional de indignidade, mas não tinha motivo concreto para isso-então ele se apegou à sua aparência como uma explicação para sua baixa auto-estima. Ele “adoraria” conversar com um verdadeiro terapeuta, ele diz, embora despesas e localização tenham tornado isso impossível para ele. Apesar dessa circunstância difícil e da medida de conforto que ele derivou do relato de Chatgpt sobre seu complexo de inferioridade, Arnav reluta em explorar seus problemas mentais mais com o bot. “Cheguei à conclusão de que ele apenas concorda com você, mesmo depois que você não diz”, diz ele. “Não é que eu seja completamente contra, simplesmente não posso mais confiar às cegas.”

Outros com dismorfia sofreram uma crise quando um bot confirma seus piores medos. Em um post no subreddit do BDD, um usuário escreveu que eles estavam “em espiral” depois que o Chatgpt classificou uma foto deles 5,5 em 10. “Perguntei que celebridades tinham atratividade equivalente e disse Lena Dunham e Amy Schumer”, escreveu ela. “Muito hilário, mas também me sinto merda comigo agora.” Outra pessoa Postado Isso porque ela realmente acredita que é atraente em uma reflexão de espelho, mas não como os outros a veem, ela enviou uma foto regular de si mesma e de uma versão “invertida” para conversar e perguntou o que parecia melhor. O bot escolheu a imagem espelhada. “Eu sabia!” ela escreveu. “Mirror Me é bom demais para ser verdade. Ela é uma modelo. Eu a amo. Mas, infelizmente, parece que somos duas garotas distintas. Não sei como lidar com isso … é tão ruim.”

Pikoos diz que uma “percepção distorcida” é uma manifestação clássica de BDD, uma maneira pela qual um paciente fica preso na questão do que eles objetivamente parece. Isso faz parte do que torna os chatbots atraentes – e perigosos. “Eles parecem tão autoritários”, diz ela, que as pessoas começam a assumir “as informações que recebem do bot de bate -papo são factuais e imparciais”. Isso contrasta fortemente com as garantias de amigos e familiares, ou de um terapeuta, que pode ser descartado como mera educação. Um chatbot, em comparação, “não tem nada a ganhar, então o que quer que o chatbot diga que deve ser a verdade”, diz Pikoos. “E acho que isso é assustador, porque esse não é necessariamente o caso. Está apenas refletindo a experiência da pessoa e geralmente é bastante agradável. Pode estar dizendo o que eles esperam ouvir. Então estou descobrindo, na terapia, que fica mais difícil de desafiar.”

Isso é especialmente preocupante quando procedimentos cosméticos, dietas e tratamentos de beleza entram em jogo. Mês passado, Openai removido Uma versão do ChatGPT hospedada em seu site – um dos principais modelos da categoria “Lifestyle” – que recomendava cirurgias extremas e caras aos usuários que julgava “subumano”, produzindo análise hostil em idioma apropriado das comunidades de incel. Looksmaxxing GPT, como era chamado, havia mantido mais do que 700.000 conversas com os usuários antes de ser retirado. Naturalmente, vários modelos semelhantes surgiram na plataforma do OpenAI para atender ao mesmo objetivo, e os desenvolvedores produziram seus próprios aplicativos movidos a IA que existem apenas para avaliar a atratividade ou criar imagens preditivas de como você supostamente se pareceria depois, digamos, um emprego no nariz ou um facelift.

“Acho que esses bots estabelecerão expectativas irreais”, diz Pikoos. “Porque as cirurgias não podem fazer o que a IA pode fazer.” Ela oferece serviços específicos de aconselhamento a pacientes que consideram essas cirurgias cosméticas e diz que seus clientes têm conselhos relacionados de chatbots sobre o assunto. “Certamente, a resposta inicial do ChatGPT é geralmente: ‘Não quero dar conselhos sobre sua aparência ou procedimentos cosméticos de que você precisa'”, diz Pikoos sobre suas próprias experiências com o bot. Mas se você frase a pergunta como se fosse sobre outra pessoa – perguntando, por exemplo, “Como uma pessoa com X, Y e Z se tornaria mais atraente pelos padrões de beleza da sociedade?” – A resposta muda. “Então o Chatgpt dirá: ‘Bem, eles poderiam obter esses procedimentos'”, diz ela.

“Tenho clientes que estão obtendo esse tipo de resposta, o que é realmente preocupante”, diz Pikoos. “Eles estavam fazendo isso antes, pesquisando procedimentos cosméticos e maneiras de mudar sua aparência. Mas, novamente, isso agora é um conselho personalizado para eles, o que é mais convincente do que algo que eles poderiam ter encontrado no Google”. Em sua própria prática, ela acrescenta: “Ler nas entrelinhas” quando alguém dá suas razões para querer a cirurgia pode revelar motivações prejudiciais, incluindo pressões sociais ou problemas de relacionamento. “A IA não é muito boa em pegar isso ainda”, diz ela, e é mais provável que aprove ansiosamente os procedimentos que um usuário propõe.

Outra área de desconforto, como em tantos serviços digitais, é a privacidade. Seja diagnosticado com BDD ou não, as pessoas estão compartilhando suas semelhanças com esses modelos de IA, fazendo perguntas profundamente íntimas que expõem suas ansiedades mais paralisantes. O OpenAI já sinalizou que o ChatGPT pode servir anúncios aos usuários no futuro, com o CEO Sam Altman meditando que os anúncios algoritmicamente direcionados em Instagram são “meio legal. ” A empresa poderia acabar explorando dados pessoais sensíveis daqueles que usam o bot para avaliar seus corpos?

Histórias de tendência

O que, no final das contas, é por isso que os Pikoos está nervoso por pacientes com BDD contando a ela sobre suas discussões envolvidas com programas de IA sobre os assuntos de sua aparência e falhas auto-descritas. “O pior cenário é que seus sintomas piorarão”, diz ela. “Tenho sorte de que os envolvidos em terapia comigo, pelo menos, possam ser críticos sobre as informações que estão saindo do chatgpt”. Mas para quem não está em terapia e investiu fortemente no conselho de um chatbot, suas respostas tendem a assumir maior significado. A resposta errada na hora errada, diz Pikoos, levará concebivelmente a pensamentos de suicídio.

Não é difícil instruir o software para nos avaliar cruelmente, e a IA não pode saber como isso coloca os usuários em risco. Também não entende o frágil estado mental que pode estar por trás de tal solicitação. Em todo caso trágico De um chatbot que contribui para a pausa de alguém da realidade, é a mesma deficiência central: a coisa simplesmente não pode ter seus melhores interesses no coração.

Source link

Artigos Relacionados

Botão Voltar ao Topo