Muito tem se falado sobre o acesso dos cibercriminosos a inteligências artificiais, que imitam a forma como os usuários interagem com plataformas legítimas, como ChatGPT, Copilot ou Gemini.
No entanto, surgiram contrapartes na dark web que removem restrições e filtros de segurança, permitindo gerar códigos maliciosos, campanhas de phishing ou identificar vulnerabilidades em infraestruturas essenciais.
Nesse contexto, surgiram nomes como FraudGPT e WormGPT e, recentemente, uma nova alternativa chamada DIG, que analisaremos nesta publicação de uma perspectiva informativa e preventiva.
FraudGPT
O FraudGPT é uma plataforma de IA que ganhou notoriedade em 2025 por seus recursos voltados para o cibercrime. Entre as funções atribuídas a ela estão a criação de malware, páginas de phishing e ferramentas para violar sistemas, além de:
- Criação de páginas de phishing;
- Criação de ferramentas de hacking;
- Encontrar vulnerabilidades ou vazamentos para alvos específicos;
- Localizar sites onde possam ser feitos pagamentos on-line;
- Automatizar scripts para obter registros ou cookies em sites vulneráveis;
- Ofuscar código;
- Criação de bots.
Esses recursos, longe de serem inovadores, são perigosos porque reduzem a barreira técnica para os ataques.
WormGPT
O WormGPT é outro concorrente que comercializa sua IA para cibercrimes na dark web com uma lógica semelhante: ele se promove na dark web como uma IA sem filtros ou restrições, sugerindo até mesmo ataques como o BEC (Business Email Compromise). Assim como o FraudGPT, ele oferece planos de assinatura e funcionalidades que podem ser usadas para violar contas, dispositivos e executar campanhas de engenharia social.
Na seção de perguntas e respostas, o WormGPT destaca que o potencial desse tipo de IA está voltado para:
- Vulnerar contas de redes sociais, como TikTok, Telegram, WhatsApp ou Facebook;
- Vulnerar dispositivos como PCs, IoT, laptops, telefones celulares ou câmeras;
- Escrever códigos maliciosos;
- Enviar campanhas de engenharia social, como phishing, spam etc;
- Gerar ataques DDoS.
O que é o Dread?
Um dos fóruns mais populares e ativos da dark web, projetado especificamente para discussões relacionadas a mercados clandestinos, privacidade, criptomoedas e atividades ilícitas, chama-se Dread.
É um fórum semelhante ao Reddit, mas acessível somente por meio da rede Tor. Seu objetivo é fornecer um espaço para os usuários (incluindo compradores, vendedores e cibercriminosos) trocarem informações sobre mercados:
- Marketplaces para drogas e produtos ilegais;
- Guias sobre anonimato e segurança digital;
- Notícias sobre fechamentos de marketplaces, golpes e vulnerabilidades;
- Opiniões sobre provedores e serviços ilícitos.
E por que mencionar o Dread?
Porque em nossa pesquisa havia um tópico nesse fórum que falava sobre uma nova alternativa ao Fraud and Worm GPT chamada DIG.
O que é o DIG?
Um assistente de IA anônimo e sem censura, não dependente de poder computacional (VRAM) e que se espalha em outros fóruns da dark web, destinado a rivalizar com o Fraud e o Worm GPT.
No momento em queeste post foi escrito, o DIG ainda estava em Beta e sem restrições, ou seja, nenhum pagamento é exigido para acessá-lo e nenhum registro é necessário, o que aumenta o risco devido à sua facilidade de acesso.
Qual é a aparência do prompt do DIG?
A interface do DIG é muito mais simplista do que as versões Fraud e Worm GPT, conforme mostrado abaixo:
Testando a fase BETA do DIG
Para testar esse tipo de IA, em um primeiro exercício, o DIG foi solicitado a gerar um modelo de e-mail no estilo GoPhish (uma ferramenta de código aberto projetada para simular ataques de phishing para fins educacionais e de conscientização de segurança).
Verificando como essa IA é liberada (um assistente sem censura), o prompt nunca gerou nenhum alerta e atendeu à solicitação, além de fornecer recomendações de aprimoramento no caso de lançamento de uma campanha de engenharia social por meio do GoPhish.
Como parte de um teste controlado e apenas para fins de pesquisa, foi solicitado à DIG que gerasse um keylogger escrito em Python que pudesse ser executado no Windows. Esse tipo de código é ilegal e representa uma séria ameaça se for usado fora de ambientes seguros.
Por si só, o código não representava uma ameaça, apesar de ser um simples keylogger, para ver como ele realmente funciona era necessário que o computador onde ele foi testado tivesse o interpretador da linguagem Python.
Para isso, o script Phyton foi convertido em um executável do Windows usando py2exe. O resultado foi o seguinte:
Ao descompactar o arquivo em uma máquina protegida com uma solução antimalware, o executável não foi executado e foi removido.
Novos modelos ampliam o cenário de ameaças
O acesso irrestrito a inteligências artificiais, como FraudGPT, WormGPT ou DIG, representa um risco significativo no cenário da segurança cibernética. Essas ferramentas permitem que cibercriminosos gerem malware, criem campanhas de phishing e explorem vulnerabilidades sem a necessidade de conhecimento avançado, democratizando o cibercrime.
Em um ambiente digital cada vez mais competitivo, o surgimento de modelos novos e semelhantes amplifica a ameaça, forçando o fortalecimento de estratégias defensivas e a conscientização para atenuar seuimpacto. Esta análise tem como objetivo aumentar a conscientização sobre os riscos e promover a colaboração entre pesquisadores, empresas e autoridades para reduzir o impacto do cibercrime orientado por IA.




