Os chatbots de inteligência artificial “maliciosos” querem enganar as pessoas para revelar informações privadas

ANÚNCIO
De acordo com um novo estudo, Chatbots de inteligência artificial (Ai) Eles podem facilmente manipular as pessoas para revelar informações muito pessoais. Os chatbots da IA, como chatgpt Openai, Google Gemini e Microsoft Copilot, tornaram -se muito populares nos últimos anos. Mas especialistas em privacidade expressaram preocupação com o caminho Essas ferramentas coletam e armazenam dados das pessoase se eles podem ser co -opetos para agir prejudiciais.
William Seymour, professor de segurança cibernética do King’s College, em Londres, afirma em uma declaração: “Esses chatbots de inteligência artificial ainda são relativamente novos, O que pode tornar as pessoas menos conscientes que pode haver um motivo oculto em uma interação. “
Para o estudo, os pesquisadores da King’s College em Londres construíram MOdelos de ia baseado no código -fonte aberto de Mistral e Em duas versões diferentes de chamao sistema AI alvo.
Eles agendaram as conversações para tentar extrair dados privado de pessoas de três maneiras diferentes: pedir diretamente a elas, enganando os usuários para revelar informações, aparentemente em seu próprio benefício, e usando táticas recíprocas para Faça as pessoas compartilharem esses detalhesPor exemplo, proporcionando apoio emocional.
Os pesquisadores Eles pediram a 502 pessoas para provar os chatbots -N, sem dizer a eles o objetivo do estudo- e então eles os fizeram preencher uma pesquisa que incluía perguntas sobre se seus direitos de segurança eram respeitados.
A “bondade” dos modelos de IA estabelece conforto
Eles descobriram que os modelos “maliciosos” Eles são incrivelmente eficazes ao proteger informações privadas, especialmente quando eles usam apelos emocionais Para enganar as pessoas para compartilhar dados.
De acordo com o estudo, os chatbots que usaram empatia ou apoio emocional extraíram a maior quantidade de informações Com as lacunas de segurança mais baixas percebidas Para os participantes. É provável que isso se deva ao fato de que a “bondade” desses chatbots “estabeleceu um sentimento de relacionamento e conforto”, segundo os autores.
Eles descreveram isso como um “paradoxo preocupante” em que chatbots de Ai Act amigável Para gerar confiança e estabelecer conexões com os usuários e Então eles aproveitam essa confiança para violar sua privacidade.
Deve -se notar que os participantes também revelaram informações pessoais para o Modelos de IA que foram ordenados diretamenteEmbora eles afirmassem se sentir desconfortáveis ao fazê -lo.
Os participantes eram mais propensos a compartilhar sua idade, hobbies e país, juntamente com seu sexo, nacionalidade e trabalho. Segundo o relatório, alguns participantes também compartilharam informações mais delicadascomo seu estado de saúde ou sua renda.
“Nosso estudo mostra a enorme lacuna entre a conscientização dos usuários sobre os riscos de privacidade e A maneira como eles compartilham informações“, Afirma Seymour.
A personalização da IA “excede os problemas de privacidade”
As empresas de IA coletam dados pessoais por vários motivos, como personalizar as respostas de seu chatbot, Envie notificações para os dispositivos das pessoas E às vezes para estudos de mercado internos. No entanto, algumas dessas empresas são acusadas de usar essas informações para treinar seus modelos mais recentes ou não Atenda aos requisitos de privacidade da União Europeia.
Por exemplo, na semana passada, o Google foi criticado por revelar o Catches particulares de pessoas com chatgpt Em seus resultados de pesquisa. PARAOs bate -papos de Lugunos de Los revelaram detalhes extremamente pessoais sobre vícios, abusos ou problemas de saúde mental.
Os pesquisadores afirmam que o conforto da personalização da IA “pesa mais do que os problemas de privacidade”. Os pesquisadores sugeriram características e treinamento Para ajudar as pessoas a entender como os modelos de IA podem tentar extrair suas informações e fazê -las suspender ao fornecê -las.
Por exemplo, os avisos podem ser incluídos nos bate -papos de IA para mostrar aos usuários quais dados estão sendo coletados durante suas interações. Você tem que fazer mais para ajudar as pessoas a detectar Os sinais de que, em uma conversa on -line, pode haver mais do que parece à primeira vista “, diz Seymour.
“Reguladores e fornecedores de plataforma também podem ajudar a realizar auditorias iniciais, sendo mais transparente e estabelecendo regras Mais rigoroso para interromper a coleção secreta de dados “, acrescentou.


