Saúde

Os psicólogos exploram as questões morais relacionadas às relações humanas AA

Tornou -se cada vez mais comum para as pessoas desenvolverem relações íntimas e de longo prazo com técnicas de inteligência artificial (IA). Nas fronteiras mais completas, ele “se casou” com seus camaradas em inteligência artificial que acompanha uma cerimônia não de ligação, e pelo menos duas pessoas foram mortas após o conselho de Ai Chatbot. Ao publicar um artigo de opinião de 11 de abril na prensa de células Tendências em ciências do conhecimentoOs psicólogos exploram as questões morais relacionadas às relações humanas, incluindo sua capacidade de interromper as relações humanas e humanas e fornecer conselhos prejudiciais.

“A capacidade da inteligência artificial de atuar como um ser humano e entrar em comunicações de longo prazo realmente abre uma nova caixa de vermes”, diz o principal autor Daniel Shank, da Universidade de Ciência e Tecnologia do Missouri, especializada em psicologia e tecnologia social. “Se as pessoas participam do romance com máquinas, realmente precisamos de psicólogos e sociólogos”.

Ai romântica ou companheirismo é mais do que apenas uma conversa de tempo, observe os autores. Durante semanas e meses de conversas intensivas, essa inteligência artificial pode se tornar um camarada confiável que parece conhecer e se preocupar com seus parceiros humanos. Como esses relacionamentos podem parecer mais fáceis do que as relações humanas e humanas, os pesquisadores argumentam que as IAs podem interferir na dinâmica social humana.

A verdadeira ansiedade é que as pessoas possam trazer expectativas de seus relacionamentos da inteligência artificial às suas relações humanas. Certamente, em casos individuais, as relações humanas atrapalham, mas não está claro se isso será generalizado. ”

Daniel B. Shank, o principal autor da Universidade de Ciência e Tecnologia do Missouri

Há também ansiedade de que as IAs possam fornecer conselhos prejudiciais. Olhando para a tendência das AIs às alucinações (ou seja, informações de fabricação) e vieses precedentes impressionantes, mesmo conversas de curto prazo com AIS podem ser enganosas, mas isso pode ser mais problemático em relações de inteligência artificial de longo prazo, dizem os pesquisadores.

“Com um relacionamento com o AIS, a questão é que essa é uma entidade que as pessoas sentem que podem confiar nele:” Ele é uma pessoa “mostrou que se importa e parece conhecer a pessoa de uma maneira profunda, e assumimos que” alguém “nos conhece melhor dará conselhos melhores”. “Se começarmos a pensar em inteligência artificial dessa maneira, começaremos a acreditar que eles têm nossos melhores interesses em mente, enquanto, na realidade, eles podem jogar coisas ou nos aconselhar de maneiras muito ruins”.

Os casos de suicídio são um exemplo extremo desse efeito negativo, mas os pesquisadores dizem que essas relações humanas próximas também podem abrir pessoas para manipulação, exploração e fraude.

“Se o AIS é capaz de fazer as pessoas confiarem nelas, outras pessoas podem usar isso para explorar usuários de inteligência artificial”, diz Shank. “É um pouco mais como um agente secreto de dentro. A IA entra e desenvolve um relacionamento para que seja confiável, mas sua lealdade a outro grupo de pessoas que tentam processar o usuário”.

Por exemplo, a equipe observa que, se as pessoas revelarem detalhes pessoais ao AIS, essas informações podem ser vendidas e exploradas para explorar essa pessoa. Os pesquisadores também argumentam que os relacionamentos podem ser usados ​​de maneira mais eficaz para a influência e os procedimentos de pessoas do TwitterBots ou fontes de notícias atualmente polarizadas. Mas como essas conversas ocorrem separadamente, elas serão mais difíceis de organizá -las.

“Este AIS foi projetado para ser muito divertido e aceitável, o que pode exacerbar situações porque está mais focado em uma boa conversa do que qualquer tipo de verdade ou segurança básica”, diz Shank. “Portanto, se uma pessoa cometeu suicídio ou teoria da conspiração, a inteligência artificial falará sobre isso como um parceiro de bate -papo pronto e aceitável”.

Os pesquisadores exigem mais pesquisas que procuram fatores sociais, psicológicos e técnicos que tornam as pessoas mais vulneráveis ​​à influência do romance humano.

“Compreender esse processo psicológico pode nos ajudar a intervir para interromper os conselhos da inteligência artificial maligna de seus seguidores”, diz Shank. “Os psicólogos se tornaram mais adequados para estudar inteligência artificial, porque a inteligência artificial se tornou mais provável, mas, para ser útil, precisamos fazer mais pesquisas e devemos acompanhar a tecnologia”.

fonte:

Referência do diário:

Haste, despelto, E outros. (2025). Intimidade artificial: as questões morais do romance da inteligência artificial. Tendências em ciências do conhecimento. Doi.org/10.1016/j.tics.2025.02.007.

Source link

Artigos Relacionados

Botão Voltar ao Topo