Antrópico admite que sua IA está sendo usada para realizar crime cibernético

Ai agêntica do Antrópico, foi “armado” em ataques cibernéticos de alto nível, de acordo com um novo publicado pela empresa. Ele afirma ter interrompido com sucesso um cibercriminal cujo esquema de extorsão “vibe hacking” direcionou pelo menos 17 organizações, incluindo algumas relacionadas a assistência médica, serviços de emergência e governo.
Anthrópica diz que o hacker tentou extorquir algumas vítimas a pagar resgates de seis dígitos para impedir que seus dados pessoais sejam divulgados, com uma confiança “sem precedentes” na assistência da IA. O relatório afirma que o Claude Code, a ferramenta de codificação Agentic da Anthropic, foi usada para “automatizar o reconhecimento, as credenciais das vítimas de colheita e penetrar nas redes”. A IA também foi usada para tomar decisões estratégicas, aconselhar sobre quais dados segmentar e até gerar notas de resgate “visualmente alarmantes”.
Além de compartilhar informações sobre o ataque com as autoridades relevantes, a Anthrópica diz que proibiu as contas em questão depois de descobrir atividades criminosas e, desde então, desenvolveu uma ferramenta de triagem automatizada. Ele também introduziu um método de detecção mais rápido e eficiente para casos futuros semelhantes, mas não especifica como isso funciona.
O relatório (que você pode ler integralmente ) também detalha o envolvimento de Claude em um esquema de emprego fraudulento na Coréia do Norte e no desenvolvimento de ransomware gerado pela IA. O tema comum dos três casos, de acordo com a Anthropic, é que a natureza altamente reativa e auto-aprendizado da IA significa que os cibercriminosos agora o usam por razões operacionais, além de apenas conselhos. A IA também pode desempenhar um papel que antes exigiria uma equipe de indivíduos, com habilidade técnica não sendo mais a barreira que era uma vez.
Claude não é a única IA que foi usada por meios nefastos. Ano passado, disse que suas ferramentas generativas de IA estavam sendo usadas por grupos cibercriminosos com laços com a China e a Coréia do Norte, com hackers usando o GAI para depuração de código, pesquisando possíveis metas e redigindo e -mails de phishing. O Openai, cuja arquitetura que a Microsoft usa para alimentar seu próprio copiloto IA, disse que bloqueou o acesso dos grupos aos seus sistemas.



