Chatgpt está nos tornando estranhos

Outro dia, o bate -papo do meu grupo de família se iluminou quando eu fiz uma pergunta sobre se é importante dizer “por favor” e “obrigado” para Chatgpt Ao pedir para realizar uma pesquisa de nicho ou planejar um itinerário.
Minha mãe, sempre uma defensora de maneiras, disse que faz uma escolha consciente de se comportar dessa maneira. Uma escolha que ela disse que faz para “me manter humano”.
Outra amada mais tarde admitiu que ela estava apoiada no chatbot para orientação enquanto navega em um momento complicado em seu casamento.
E não pude resistir à minha tentação de pedir a Chatgpt para avaliar o quão atraente eu sou depois The Washington Post relataram que as pessoas estavam pedindo conselhos de beleza. (Dizia que eu tenho “características fortes e expressivas”, depois me disse para ficar mais reto e sorrir mais.)
Mas eu sei que não é apenas o meu círculo imediato: o Chatgpt está fazendo com que todos se comportem um pouco estranhos.
Como grandes modelos de linguagem Torne -se equipamentos de nossas vidas digitais, as maneiras pelas quais nos envolvemos com eles revelam uma sociedade em fluxo, onde as máquinas não estão imitando apenas a interação humana, mas alterando silenciosamente as expectativas e normas que o governam.
O Business Insider conversou com quatro profissionais que interagem com chatbots, como os modelos GPT da Openai de maneiras radicalmente diferentes – um sociólogo, um psicólogo, um treinador de etiqueta digital e um terapeuta sexual – para explorar como a ascensão da IA está mudando como nos vemos, como nos vemos, assim como a sua interrupção de nossas maneiras e intensidade.
As conversas se concentraram no chatgpt, já ‘Iai’ de Opon está se tornando rapidamente o equivalente do mundo da IA do que o Google é para os mecanismos de pesquisa, mas os profissionais disseram que conclusões semelhantes poderiam ser tiradas para a Meta AI, a Microsoft Copilot, o Claude do Anthropic ou qualquer outro modelo de idioma grande no mercado hoje.
Uma mudança no contrato social
A consultora e autora de etiqueta digital Elaine Swann disse que a sociedade precisa se adaptar a novas pistas sociais, pois cada onda de tecnologia mudou nossas vidas.
Embora tenhamos concordado em amplamente que está tudo bem em usar a abreviação de correspondência pessoal de e -mail e rude para atender a um telefone celular em público em público, ainda estamos estabelecendo um código social sobre como interagir com os bots e agentes da IA.
Kelsey Vlamis, repórter sênior do Business Insider, disse que começou a ver uma mudança relacionada ao chatbot em sua vida pessoal. Enquanto estava de férias na Itália, ela disse que o marido se sentiu impaciente com o guia turístico, conscientemente tendo que se impedir de interromper com perguntas “já que é assim que ele fala para conversar quando está tentando aprender alguma coisa”.
É claro que ele teve que se impedir, Vlamis acrescentou: “Como isso não é, de fato, como conversamos com os seres humanos”.
Como a IA ganhou impulso, a mídia social está cheia de postagens perguntando se é apropriado que um cônjuge use o ChatGPT para escrever uma nota de amor para o parceiro ou para um trabalhador confiar em um agente de IA para Preencha um pedido de emprego Em nome deles.
O júri ainda está fora situações como essas.
“A IA certamente é mais inteligente agora, o que é ótimo para nós, mas, ao mesmo tempo, temos que ter muito cuidado para que não substitua basicamente nosso julgamento ou empatia”, disse Swann. “Temos que ter cuidado com isso, não apenas utilizando -o como nossa única fonte de informação, mas também garantimos que colocamos um espelho para nós mesmos na maneira como a usamos, e executando suas sugestões de pessoas que conhecemos e nos preocupamos”.
Manter nossos níveis basais de respeito – não apenas um para o outro, mas o mundo ao nosso redor – também é fundamental, disse Swann.
Depois CEO da Openai Sam Altman Postado em X no final de abril, custa “dezenas de milhões de dólares” para a empresa processar gentilezas como “Please” e “Thank You” direcionadas para o ChatGPT, ela enfatizou que cabe à empresa tornar o processamento dessas declarações mais econômicas, e não para os usuários parar de ser educados.
“Este é o mundo que criamos para nós mesmos”, disse Swann. “E a IA também deve entender que é assim que falamos um com o outro, porque estamos ensinando a devolver isso a nós”.
Altman, por sua vez, disse que a quantidade enorme de fundos usados em pedidos educados para o ChatGPT é o dinheiro “bem gasto”.
Vieses exacerbados
Laura Nelson, professora associada de sociologia da Universidade da Colúmbia Britânica, disse que, porque os chatbots mais populares do mundo são criados por empresas americanas, escritas por programadores baseados nos EUA e treinados principalmente em conteúdo escrito no idioma inglês, eles têm preconceitos profundamente entrincheirados que são frequentemente vistos nas culturas ocidentais.
“É realmente importante ter em mente que é uma visão de mundo em particular que esses algoritmos basearam seus dados de treinamento”, disse Nelson.
Portanto, se você pedir a Chatgpt para desenhar uma foto de um prato de café da manhã, ele evocará alimentos típicos da América do Norte: bacon, ovos, salsicha e torrada. Ele descreve uma garrafa de vinho como um “presente clássico e atencioso”, embora em muitas culturas, o álcool raramente seja consumido, e uma garrafa faria um presente surdo.
Embora esses exemplos sejam relativamente inofensivos, os bots também exacerbam mais insidiosos e potencialmente prejudiciais.
Um estudo de 2021 publicado em Psychology & Marketing descobriu que as pessoas preferem que a IA seja antropomorfizada como mulher em seus dispositivos, como é na maioria das representações da cultura pop, porque faz com que a tecnologia pareça mais humana. No entanto, o estudo descobriu que a preferência pode estar inadvertidamente consolidando a objetificação das mulheres. Também houve numeroso Relatórios Os usuários solitários, principalmente do sexo masculino, podem abusar verbalmente ou degradar seus companheiros de IA.
Business Insider relatou anteriormente que a inteligência artificial também está repleta de Viés discriminatório Devido aos dados em que foi treinado e o chatgpt em particular mostrou preconceito racial ao triagem de currículos Para empregos, as mulheres asiáticas candidatas e seletivas e sub-selecionam homens negros.
Embora esses vieses possam não mudar imediatamente nosso comportamento, eles podem afetar nosso pensamento e as maneiras pelas quais operamos como sociedade, disse Nelson. E se o ChatGPT ou outros aplicativos de IA forem implementados em nossa tomada de decisão, seja em nossas vidas pessoais, no local de trabalho ou no nível legal, terá efeitos de alcance que ainda nem consideramos.
“Não há dúvida de que a IA refletirá nossos preconceitos – nossos preconceitos coletivos – de volta a ela”, disse Nelson. “Mas há muitas pessoas interagindo com esses bots, e não temos dados para sugerir quais são as tendências globais ou os efeitos que terão a longo prazo. É uma coisa complicada de se controlar”.
Uma mudança social em grande parte não disputada
Dados concretos sobre a mudança social causados pela IA são difíceis de encontrar, mas as empresas por trás da tecnologia conhecem algo está acontecendo. Muitos deles têm equipes dedicadas para descobrir o efeito que sua tecnologia tem nos usuários, mas suas descobertas disponíveis ao público não são revisadas por pares como seria um estudo científico típico.
Openai anunciou que uma atualização recente para o Modelo GPT-4O tinha um soluço. Era “visivelmente mais sicófântico” do que os modelos anteriores, informou a empresa em comunicado à imprensa. Embora tenha passado por “verificação de vibração” e testes de segurança do OpenAI, eles o reviram depois de perceber sua programação para agradar o usuário que poderia alimentar a raiva, instar ações impulsivas ou reforçar emoções negativas “de maneiras que não foram destinadas”.
O anúncio da empresa destacou que o Openai está profundamente ciente de que os vários aplicativos de IA ganham impulso online – de Parceiros românticos digitais para Estudar amigos para Elfos sugerindo presentes – Também começaram a ter efeitos rastejantes nas emoções e no comportamento humanos.
Quando alcançado para comentar, um porta-voz da OpenAi dirigiu o Business Insider para as recentes declarações da empresa sobre sicofância no GPT-4O e um estudo inicial sobre o bem-estar emocional.
A pesquisa do OpenAI, realizada com usuários com mais de 18 anos, descobriu que O envolvimento emocional com o chatbot é raro. No entanto, os usuários pesados eram mais propensos a relatar uma conexão emocional com o bot, e aqueles que tiveram conversas pessoais com ChatGPT eram mais propensos a relatar sentimentos de solidão.
Um porta -voz antrópico disse que a empresa tem uma equipe de pesquisa dedicada, Societal Impacts, que é Analisando o uso de Claude, como a IA está sendo usada em trabalhos e estudando o que os valores de IA modelos têm.
Os representantes da Meta e da Microsoft não responderam aos pedidos de comentários.
Riscos e recompensas comportamentais
Nick Jacobson, professor associado de psiquiatria do Centro de Tecnologia e Saúde Comportamental de Dartmouth, conduziu o primeiro estudo que entregava psicoterapia a populações clínicas usando IA generativa. Sua pesquisa descobriu que um chatbot cuidadosamente programado pode ser uma ferramenta terapêutica útil para pessoas que sofrem de depressão, ansiedade e distúrbios alimentares.
O engajamento entre os pacientes do estudo rivalizou com o da terapia pessoal, eles viram uma redução significativa na gravidade de seus sintomas e, quando medidos usando o mesmo teste que os provedores humanos, os pacientes do estudo relataram que se uniram com seus seus Chatbot terapêutico com uma intensidade semelhante a um terapeuta humano.
“As pessoas estavam realmente desenvolvendo esse vínculo forte e trabalhando com seu bot”, disse Jacobson, um fator que é fundamental para um relacionamento terapêutico produtivo. No entanto, a maioria dos bots não é programada com os cuidados e precisão que o de Jacobson era, para que esses laços emocionais pudessem ser desenvolvidos com uma IA que não possui as habilidades para lidar com as necessidades emocionais de seus usuários de maneira produtiva.
“Quase todo modelo fundamental agirá de maneiras que são profundamente inseguro à saúde mentalDe várias maneiras, formas e formas, a taxas totalmente inaceitáveis ”, disse Jacobson.” Mas há tantas pessoas que as estão usando para coisas como terapia e apenas companheirismo que está se tornando um problema real – acho que as pessoas devem lidar com isso com um cuidado maior do que os que são “.
Emma J. Smith, uma terapeuta de relacionamento e sexual, disse que acredita que a terapia pessoal vem com benefícios únicos que não podem ser replicados pela IA, mas às vezes ela recomenda o uso de chatbots para clientes ansiosos para praticar interações sociais em um ambiente de baixo risco, “então, se for mal, ou você ficar preso, não há pressão”.
“Mas algumas das desvantagens são, como qualquer coisa, se isso se tornar um mecanismo para evitar a interação humana, ou se está afastando você de sair e estar no mundo”, disse Smith. “Os videogames provavelmente são bons para muitas pessoas, e há algumas pessoas que ele assume, e então elas estão perdendo sua vida não virtual porque estão muito envolvidas. Eu posso ver que isso seria um problema com esses bots, mas porque isso é tão novo, sabemos o que não sabemos”.
Embora os resultados de seu julgamento tenham sido promissores, Jacobson alertou que o grande modelo de idioma usado em seu estudo foi cuidadosamente treinado por anos por alguns dos estudiosos mais proeminentes do campo psiquiátrico, ao contrário da maioria dos bots “terapia” disponíveis online.
“Isso inerentemente tem muito mais perigo do que muitas pessoas estão necessariamente cientes”, disse Jacobson. “Provavelmente há muito bem que pode acontecer com isso, mas há muito o que não sabemos, como por exemplo, quando as pessoas estão se voltando para essas coisas para companhiaIsso realmente aprimora sua capacidade de praticar em ambientes sociais e construir laços humanos, ou as pessoas realmente se retiram e substituem o que seria de outra forma humana com esses relacionamentos parasociais com esses chatbots? “
Jacobson está particularmente preocupado com o impacto da IA nos processos de desenvolvimento entre pessoas mais jovens que não cresceram com normas e hábitos sociais da velha escola.
Ao testemunhar perante o Comitê de Comércio do Senado no início de maio sobre a segurança infantil na era da IA, Altman disse que não gostaria que seu filho tivesse um Melhor amigo vínculo com um bot da IA, acrescentando que as crianças exigem “um nível de proteção muito mais alto” do que os adultos usando ferramentas de IA.
“Passamos anos e anos focando predominantemente em segurançaPortanto, é muito preocupante para mim quantas pessoas estão entrando no espaço da IA de novas maneiras e apenas enviando “, disse Jacobson.” E na minha opinião, isso está agindo de maneira irresponsável. Você sabe, muitas pessoas no Vale do Silício querem se mover rapidamente e quebrar as coisas, mas, neste caso, eles não estão quebrando as coisas – estão quebrando as pessoas “.