Um novo experimento de casal com chatgpt: npr

Em uma noite recente, meu novo namorado e eu nos encontramos em uma briga.
Eu o acusei de ceder aos seus pensamentos ansiosos.
“É difícil sair da minha cabeça”, disse David. “A espiral mental faz parte da natureza da sensibilidade às vezes – há um transbordamento emocional disso”.
“Bem, a espiral é ruim”, disse eu, uma mulher que espirra.
Nossos diferentes estilos de comunicação alimentaram a troca tensa. Enquanto eu me inclino prático e direto, ele é contemplativo e conceitual.
Eu senti que poderíamos nos beneficiar de um mediador. Então, voltei -me para o meu novo consultor de relacionamento, Chatgpt.
Ai entra no chat
Quase metade da geração Z usa inteligência artificial para conselhos de namoro, mais do que qualquer outra geração, de acordo com um Pesquisa recente em todo o país por grupo de partidasque é dono dos aplicativos de namoro Tinder e Deling. Curiosamente, conheço mulheres que estão consultando a IA Chatbots sobre relacionamentos casuais e sérios. Eles jorram sobre esmagamentos, carregam capturas de tela de threads de texto longos para dissecção, meditam a compatibilidade de longo prazo, resolvem desacordos e até a placa de som seus sextos.
Kat, uma amiga minha que usa o Chatgpt para eliminar as perspectivas de namoro, me disse que achava bastante objetivo. Onde as emoções poderiam atrapalhar, o chatbot a ajudou a defender seus padrões.
“Sinto que isso dá melhores conselhos do que meus amigos a maior parte do tempo. E melhores conselhos do que meu terapeuta”, disse Kat, que pediu para seguir seu primeiro nome devido a preocupações de que seu uso de IA poderia comprometer futuras conexões românticas. “Com os amigos, estamos todos andando com a cabeça cortada quando se trata de situações emocionais”.
Quando os aplicativos estão desafiando nossas antigas maneiras de encontrar conexão e intimidade, parece irônico adicionar outra camada de tecnologia ao namoro. Mas Kat poderia estar interessado em alguma coisa? Talvez uma IA aparentemente neutra seja uma ferramenta inteligente para resolver problemas de relacionamento, sem bagagem humana.
Para fins jornalísticos, decidi mergulhar na tendência.
Vamos ver o que o chatgpt tem a dizer sobre isso …
Com base na teoria de que os casais deveriam procurar terapia antes de surgirem grandes problemas, propus ao meu namorado menos de seis meses em que recorremos a um chatbot de IA para obter conselhos, avaliar o feedback do bot e compartilhar os resultados. David, um artista que sempre está pronto para um bom projeto experimental (também sem sobrenome para ele!), Concordou com o campo.
Nossa primeira incursão no aconselhamento de casais mediados por ChatGPT começou com uma pergunta sugerida pelo bot para despertar discussões sobre a saúde de nosso relacionamento. David tinha recursos para ajudá -lo a gerenciar seu estresse e ansiedade? Ele fez – ele estava em terapia, exercitou -se e tinha amigos e familiares de apoio. Essa referência à sua ansiedade então o enviou em uma tangente.
Ele refletiu sobre ser um “tipo de artista sensível”. Ele sentiu que as mulheres, que poderiam gostar, em teoria, não querem lidar com parceiros masculinos emocionalmente sensíveis.
“Eu deveria ser imperturbável, mas também emocionalmente vulnerável”, disse David.
Ele estava se abrindo. Mas eu o acusei de espiralar, projetar suposições e monologadas.
Enquanto ele estava mastigando grandes idéias, tentei levar a conversa de volta ao nosso atrito interpessoal. Foi aí que entrou o chatgpt: gravei nossa conversa e enviei a transcrição para o bot. E então eu fiz uma pergunta. (Nossos bate -papos foram fortemente editados para a brevidade – fala muito.)
David ficou incrédulo. “Parece um clichê”, disse ele.
DeflexãoEu pensei. Voltei -me para Chatgpt e ler:
Foi um resumo condenatório. Eu era, como o chatgpt sugeriu, carregando um nível de burnout de trabalho emocional Nesse estágio inicial do relacionamento?
Pressionando pela objetividade
Um humano me trouxe de volta à realidade.
“Pode ser verdade que você estava fazendo mais trabalho emocional (naquele momento) ou no nível individual. Mas há um enorme viés”, disse Myra Cheng, pesquisadora de IA e doutora de ciência da computação. Aluno da Universidade de Stanford.
O material que os grandes modelos de linguagem (LLMs), como ChatGPT, Claude e Gêmeos, são treinados – a Internet, principalmente – tem um “enorme preconceito americano e branco e masculino”, disse ela.
E isso significa que todos os tropos culturais e padrões de viés estão presentes, incluindo o estereótipo de que as mulheres desproporcionalmente fazem o trabalho emocional no trabalho e nos relacionamentos.
Cheng fazia parte de uma equipe de pesquisa que comparou dois conjuntos de dados, cada um composto por conselhos pessoais: um conjunto de dados escrito por seres humanos que respondem a situações do mundo real e o segundo conjunto de dados que consiste em julgamentos feitos pelo LLMS em resposta a postagens no fórum de conselhos do Reddit (“sou o a ** hole?”)
O estudo descobriu que os LLMs consistentemente exibir taxas mais altas de bajulação – Acordo excessivo ou lisonja do usuário – do que os humanos.
Para assuntos de habilidades suaves, como conselhos, a bajulagem nos chatbots da IA pode ser especialmente perigosa, disse Cheng, porque não há certeza sobre se sua orientação é sensata. Em um caso recente, revelando os perigos de um bot spofântico, um homem que estava tendo episódios maníacos disseram As afirmações de Chatgpt o impediram de procurar ajuda.
Então, buscando algo mais próximo da objetividade no bot tendencioso, mudei minha aderência.
Lá estava novamente: eu estava preso fazendo o trabalho emocional. Acusei o Chatgpt de continuar a não ter equilíbrio.
“Por que você obtém ‘comunicação clara’?” David me perguntou, como se eu escolhesse essas palavras.
Nesse ponto, perguntei a Fait Escrito sobre o tópicoPara dicas sobre como trazer chatgpt para o meu relacionamento.
É um caso clássico de triangulação, de acordo com Drew. A triangulação é uma estratégia de enfrentamento nos relacionamentos quando uma terceira pessoa – um amigo, pai ou IA, por exemplo – é trazida para facilitar a tensão entre duas pessoas.
Há valor na triangulação, se a fonte é um bot ou um amigo. “A IA pode ser útil porque sintetiza as informações muito rapidamente”, disse Drew.
Mas a triangulação pode dar errado quando você não acompanha seu parceiro na equação.
“Uma pessoa sai e tenta obter respostas por conta própria – “Vou falar com a IA”, disse ela. “Mas isso nunca me força a lidar com o problema com a pessoa”.
O bot pode nem ter a capacidade de me responsabilizar se não estiver alimentando todos os detalhes necessários, disse ela. A triangulação neste caso é valiosa, ela disse: “Se estamos fazendo as perguntas certas ao bot, como: ‘Qual é o meu papel no conflito?'”
O avanço
Em busca de neutralidade e responsabilidade, calibrei meu chatbot mais uma vez. “Use o idioma que não lança culpa”, ordenei. Então enviei o seguinte texto de David:
Sinto que você me acusou de não ouvir antes mesmo de ter a chance de ouvir. Estou me disponibilizando e aberto e vulnerável a você.
“O que está faltando no meu fim?” Eu perguntei a chatgpt.
Depois de muita lisonja, finalmente respondeu:
Achei sua resposta simples e reveladora. Além disso, era preciso.
Ele estava pegando muita folga no relacionamento ultimamente. Ele me fez jantares quando o trabalho me manteve atrasado e deixou de lado seu próprio trabalho para me entregar em conversas longas e ridículas da IA.
Eu refleti sobre um ponto que Drew fez – sobre a importância de colocar o trabalho em nossos relacionamentos, especialmente nos momentos desconfortáveis, em vez de confiar na IA.
“Ser capaz de sentar -se com o seu parceiro – isso é real”, disse ela. “Não há problema em não ter as respostas. Não há problema em ser empático e não saber como consertar as coisas. E acho que é aí que os relacionamentos são muito especiais – onde a IA nunca poderia ser um substituto”.
Aqui está o meu take -away. O ChatGPT teve um pequeno vislumbre de nosso relacionamento e sua dinâmica. Os relacionamentos são fluidos e o chatbot só pode capturar um instantâneo. Chamei a IA em momentos de tensão. Eu pude ver como esse reflexo poderia alimentar nossa discórdia, não ajudar a consertá -la. O chatgpt pode ser apressado para escolher lados e geralmente decidiu muito rapidamente que algo era um padrão.
Os seres humanos nem sempre pensam e se comportam em padrões previsíveis. E a química é um grande fator na compatibilidade. Se um chatbot de IA não pode sentir a química entre as pessoas-sente isso, reconheça a coisa mágica que acontece no espaço tridimensional entre duas pessoas imperfeitas-é difícil confiar na máquina quando se trata de algo tão importante quanto os relacionamentos.
Algumas vezes, nós dois sentimos que o ChatGPT deu um feedback objetivo e criativo, ofereceu uma análise válida de nossos estilos de comunicação e desacordo algumas desacordos.
Mas foi preciso muito trabalho para chegar a algum lugar interessante. No final, prefiro investir esse tempo e energia – o que o Chatgpt pode chamar meu trabalho emocional – em meus relacionamentos humanos.







