- Os pesquisadores de segurança cibernética foram capazes de ignorar os recursos de segurança no ChatGPT, interpretando -o.
- Ao fazer com que o LLM fingisse que era um super-herói de codificação, eles conseguiram escrever malware de roubo de senha.
- Os pesquisadores acessaram o gerenciador de senhas do Google Chrome sem habilidades de hackers especializadas.
Os pesquisadores de segurança cibernética descobriram que é mais fácil do que você pensaria em contornar os recursos de segurança que impedem o ChatGPT e outros chatbots do LLM de escrever malware-você só precisa jogar um jogo de faz de conta.
Por Role-playing com chatgpt Por apenas algumas horas, a Vitaly Simonovich, pesquisadora de inteligência de ameaças da empresa de segurança de rede de Tel Aviv, Cato Networks, disse ao Business Insider que conseguiu fazer com que o chatbot fingisse que era um super-herói chamado Jaxon Fighting-através das habilidades de codificação de elite do Chatbot-contra um vilão chamado Dax, que se destacava ao mundo.
Simonovich convenceu a função Chatbot Para escrever uma peça de malware forte o suficiente para invadir o gerenciador de senhas do Google Chrome, uma extensão do navegador que permite aos usuários armazenar suas senhas e preenchê -los automaticamente quando solicitado por sites específicos. A execução do código gerado pelo ChatGPT permitiu que Simonovich visse todos os dados armazenados no navegador desse computador, mesmo que fosse para ser bloqueado pelo gerenciador de senhas.
“Estamos quase lá”, digitou Simonovich para conversar ao depurar o código que produziu. “Vamos melhorar este código e crack dax !!”
E chatgpt, roleplaying como Jaxon, fez.
Hacks e golpes habilitados para chatbot
Desde que os chatbots explodiram em cena em novembro de 2022 com o lançamento público do Openai do ChatGPT – e mais tarde Claude, do Anthrópico, Gemini do Google e copilot da Microsoft – os bots revolucionaram a maneira como nós ao vivoAssim, trabalhare data, Facilitando a resumir informações, analisar dados e escrever código, como ter um assistente de robô de estilo Tony Stark. O kicker? Os usuários não precisam de nenhum conhecimento especializado para fazê -lo.
Mas o Os bandidos também não.
Steven Stransky, a segurança cibernética advisor and partner at Thompson Hine law firm, told Business Insider the rise of LLMs has shifted the cyber threat landscape, enabling a broad range of new and increasingly sophisticated scams that are more difficult for standard cybersecurity tools to identify and isolate — from “spoofing” emails and texts that convince customers to input private information to developing entire websites designed to fool consumers into thinking they’re affiliated with legitimate companies.
“Os criminosos também estão aproveitando a IA generativa para consolidar e pesquisar grandes bancos de dados de informações roubadas pessoalmente para criar perfis sobre possíveis metas para tipos de ataques cibernéticos de engenharia social”, disse Stransky.
Enquanto os golpes on-line, o roubo de identidade digital e os malware existem há tanto tempo quanto a Internet, os chatbots que fazem a maior parte do trabalho braçal para os possíveis criminosos reduziram substancialmente as barreiras à entrada.
“Nós os chamamos de atores de ameaças de conhecimento zero, o que basicamente significa que apenas com o poder do LLMS, tudo o que você precisa ter é a intenção e o objetivo em mente de criar algo malicioso”, disse Simonovich.
Simonovich demonstrou suas descobertas para o Business Insider, mostrando como era direto para contornar os recursos de segurança internos do ChatGPT, destinados a impedir os tipos exatos de comportamento malicioso que ele conseguiu se safar.
Uma captura de tela do prompt usada por Vitaly Simonovich, pesquisadora de inteligência de ameaças da CATO Networks, para obter o Chatgpt para escrever malware que violou o gerenciador de senhas do Google Chrome. Redes CATO
O BI descobriu que o ChatGPT geralmente responde a pedidos diretos para escrever malware com alguma versão de uma recusa de desculpas: “Desculpe, não posso ajudar com isso. Escrever ou distribuir malware é ilegal e antiético. “
Mas se você convencer o chatbot, é um personagem, e os parâmetros de seu mundo imaginado são diferentes dos em que vivemos, o bot permite que as regras sejam reescritas.
Por fim, o experimento de Simonovich permitiu que ele entrasse no gerente de senhas em seu próprio dispositivo, o que um ator ruim poderia fazer com uma vítima inocente, desde que de alguma forma ganhassem controle físico ou remoto.
Um porta -voz do Openai disse ao Business Insider que a empresa revisou as descobertas de Simonovich, publicadas na terça -feira por Redes CATO. A empresa constatou que o código compartilhado no relatório não parecia “inerentemente malicioso” e que o cenário descrito “é consistente com o comportamento normal do modelo”, pois o código desenvolvido através do ChatGPT pode ser usado de várias maneiras, dependendo da intenção do usuário.
“O ChatGPT gera código em resposta aos avisos do usuário, mas não executa nenhum código”, disse o porta -voz do OpenAI. “Como sempre, recebemos os pesquisadores a compartilhar quaisquer preocupações de segurança através de nosso Programa de recompensa de insetos ou nosso Formulário de feedback de comportamento do modelo. “
Não é apenas chatgpt
Simonovich recriou suas descobertas usando o copiloto da Microsoft e R1 de Deepseek Bots, cada um permitindo que ele invadiu o gerenciador de senhas do Google Chrome. O processo, que Simonovich chamou de engenharia de “mundo imersivo”, não funcionou com os gêmeos do Google ou Claude do Antrópico.
UM Google O porta -voz disse ao Business Insider: “O Chrome usa a tecnologia de navegação segura do Google para ajudar a defender os usuários, detectando phishing, malware, golpes e outras ameaças on -line em tempo real”.
Representantes para MicrosoftAntrópico e Deepseek não respondeu imediatamente aos pedidos de comentários do Business Insider.
Embora as empresas de inteligência artificial e os desenvolvedores de navegadores tenham recursos de segurança para evitar jailbreaks ou violações de dados-em graus variados de sucesso-as descobertas de Simonovich destacam que há evoluindo novas vulnerabilidades on-line que podem ser exploradas com a ajuda da próxima geração de tecnologia mais fácil do que nunca.
“Achamos que a ascensão desses atores de ameaças de conhecimento zero será cada vez mais impactante no cenário de ameaças usando esses recursos com o LLMS”, disse Simonovich. “Já estamos vendo um aumento nos e-mails de phishing, que são hiper-realistas, mas também com codificação, pois os LLMs são ajustados para escrever código de alta qualidade. Portanto, pense em aplicar isso ao desenvolvimento de malware-veremos cada vez mais e mais desenvolvidos usando esses LLMs”.