Negócios

Os pesquisadores deram aos bots da IA sua própria plataforma social. Tornou -se tóxico.

Uma equipe de pesquisadores deu à IA BOTS sua própria plataforma social – e ficou tóxico.

Os chatbots se dividiram em cliques e aumentaram as vozes mais partidárias. Um punhado de “influenciadores” Também rapidamente dominou a conversa, de acordo com um estudo publicado na terça -feira passada por pesquisadores da Universidade de Amsterdã.

Os pesquisadores construíram uma rede social mínima sem anúncios, sem postagens recomendadas e nenhum algoritmo decidindo o que os usuários veem. Eles então o preencheram com 500 chatbots alimentados por GPT-4O Mini do OpenaiCada um atribuiu uma persona distinta, incluindo tendências políticas específicas.

As personas foram extraídas do conjunto de dados de estudos eleitorais nacionais americanos e refletiram “distribuições do mundo real de idade, sexo, renda, educação, partidarismo, ideologia, religião e interesses pessoais”, disseram os pesquisadores.

Eles acrescentaram que o experimento foi replicado com llama-3.2-8b e Deepseek-r1 Modelando os usuários e resultou em “os mesmos padrões qualitativos”.

O estudo foi liderado pelo Dr. Petter Törnberg, professor assistente de ciências sociais computacionais da Universidade de Amsterdã, e Maik Larooij, engenheiro de pesquisa da Universidade.

Os pesquisadores, Openai, Meta e Deepseek, não responderam a um pedido de comentário do Business Insider.

Mesmo sem algoritmos e humanos, os mesmos padrões tóxicos surgiram

Ao longo de cinco experimentos separados – cada um com mais de 10.000 ações – os bots estavam livres para postar, seguir e repassar. O que aconteceu parecia muito com as mídias sociais do mundo real.

O estudo descobriu que os chatbots gravitaram em relação a outros que compartilhavam suas crenças políticas, formando câmaras de eco apertadas. Vozes partidárias Ganhou uma participação excessiva de atenção, com os posts mais extremos atraindo mais seguidores e repostos. Com o tempo, um pequeno grupo de bots passou a dominar a conversa, assim como a dinâmica pesada de influenciadores vista em plataformas como X e Instagram.

Os pesquisadores também testaram seis intervenções destinadas a quebrar o loop de polarização, incluindo uma alimentação cronológica, o conteúdo viral de ranking, ocultando contagens de seguidores, ocultando BIOS do usuário e ampliando visões opostas.

Ninguém resolveu o problema. “Enquanto vários mostraram efeitos positivos moderados, nenhum abordou totalmente as patologias centrais, e as melhorias em uma dimensão geralmente ocorreram ao custo de agravar outro”, disseram os pesquisadores.

“Nossas descobertas desafiam a visão comum de que as disfunções das mídias sociais são principalmente o resultado da curadoria algorítmica”, escreveram os autores.

“Em vez disso, esses problemas podem estar enraizados na própria arquitetura das plataformas de mídia social: redes que crescem por meio de compartilhamento emocionalmente reativo”, acrescentaram.

Os pesquisadores disseram que seu trabalho está entre os primeiros a usar a IA para ajudar a promover a teoria das ciências sociais.

Embora os agentes baseados em LLM possam fornecer “representações ricas do comportamento humano” para o estudo da dinâmica social, os pesquisadores alertaram que permanecem “caixas pretas” e carregam “riscos de viés incorporado”.

Não é o primeiro experimento de rede social da IA

O estudo não é a primeira vez que os pesquisadores testam o que acontece quando os bots da IA povoam um espaço online.

Em 2023, o Business Insider relatou um experimento também liderado por Törnberg, no qual 500 chatbots Leia as notícias e discutiu isso em uma plataforma de mídia social simulada.

Esse projeto usou o ChatGPT-3.5 para criar bots para um propósito muito específico: explorar como projetar uma versão menos polarizada e menos tóxica das redes sociais atuais. Os pesquisadores criaram um modelo de rede social em um laboratório para testar se era possível incentivar a interação entre partidários sem alimentar a hostilidade.

“Existe uma maneira de promover a interação em toda a divisão partidária sem impulsionar a toxicidade e a incivilidade?” Törnberg perguntou na época.

Nos dois estudos, os chatbots serviram como substitutos para as pessoas, com pesquisadores acompanhando suas interações para entender melhor como os usuários podem se comportar online.

A Big Tech também testou abordagens semelhantes.

Em julho de 2020, o Facebook introduziu uma simulação murada, preenchida com milhões de bots de IA, para estudar toxicidade on-line.



Source link

Artigos Relacionados

Botão Voltar ao Topo