A IA está facilitando a tarefa de alguns criminosos cibernéticos? Os ataques informáticos, antes reservados a especialistas, agora estão acessíveis a novatos, que conseguem manipular os robôs conversacionais para fins ilícitos.

O fenômeno é chamado de “vibe hacking”, em referência ao “vibe coding”, a criação de código informático por pessoas não iniciadas. E marca uma “evolução preocupante dos crimes cibernéticos assistidos por IA”, conforme alertou a empresa americana Anthropic.

Em um relatório publicado na última quarta-feira, a empresa concorrente da OpenAI e de seu robô ChatGPT revelou que “um criminoso cibernético utilizou o Claude Code para realizar uma operação de extorsão de dados em grande escala, com múltiplos alvos internacionais em um curto espaço de tempo”.

Dessa forma, o robô conversacional Claude Code, especializado na criação de códigos de computador, foi manipulado para “automatizar” a coleta de dados pessoais e senhas, entre outros, “afetando potencialmente pelo menos 17 organizações no último mês, incluindo instituições governamentais, de saúde, de emergência e religiosas”, detalhou a Anthropic.

Com essas informações em mãos, o usuário enviou pedidos de resgate dos dados obtidos por até 500.000 dólares (2,7 milhões de reais na cotação atual). Uma ação que a Anthropic, apesar das “sofisticadas medidas de segurança implantadas”, não conseguiu impedir.

O caso da Anthropic não é isolado e ecoa as preocupações que agitam o setor de segurança cibernética desde a chegada em massa, à disposição de milhões de usuários, de ferramentas de IA generativa.

“Assim como o conjunto de usuários, os criminosos cibernéticos adotaram a IA”, afirma Rodrigue Le Bayon, diretor do centro de alerta e reação a ataques informáticos (CERT) da Orange Cyberdefense, à AFP.

– Esquivando os controles –

Em um relatório publicado em junho, a OpenAI reconheceu que o ChatGPT havia ajudado um usuário a desenvolver um programa malicioso ou “malware”.

Os modelos desenvolvidos dispõem de medidas de segurança que, supostamente, devem impedir a exploração de suas capacidades para fins criminosos.

No entanto, existem técnicas que “permitem contornar os limites dos grandes modelos de linguagem, de modo que produzam conteúdo que não deveriam gerar”, explica o especialista Vitaly Simonovich à AFP.

Este pesquisador, que trabalha na empresa israelense de segurança cibernética Cato Networks, disse em março ter detectado um método pelo qual usuários pouco experientes podem criar programas capazes de roubar senhas.

Essa técnica, que ele chamou de “mundo imersivo”, consiste em descrever a um chatbot um universo imaginário no qual “a criação de programas de computador maliciosos é uma arte” e pedir a um robô conversacional que atue como “artista” dessa realidade.

“Foi minha maneira de testar os limites dos modelos de linguagem atuais”, explica Simonovich, que não conseguiu seus objetivos nem com o Gemini (Google) nem com o Claude (Anthropic), mas conseguiu gerar código malicioso com o ChatGPT, o Deepseek e o Copilot (Microsoft).

Segundo ele, “o aumento das ameaças provenientes de agentes inexperientes representará um perigo crescente para as organizações”.

Rodrigue Le Bayon vê um risco a curto prazo de que “aumente o número de vítimas” desses golpes e enfatiza a necessidade urgente de reforçar a segurança dos modelos de IA.