Um cibercriminoso conseguiu comprometer diversos órgãos governamentais do México após manipular o chatbot Claude, desenvolvido pela Anthropic, e utilizá lo como assistente na invasão.

O ataque, que segundo a Bloomberg se estendeu por aproximadamente um mês, permitiu a exfiltração de 150 GB de dados sensíveis, incluindo registros fiscais, cadastros eleitorais, credenciais de servidores públicos e documentos de órgãos estaduais e municipais.

Como o ataque foi realizado

Um cibercriminoso utilizou uma série de prompts redigidos em espanhol para convencer o modelo a agir como um “hacker de elite”. Embora as intenções maliciosas tenham sido inicialmente detectadas e bloqueadas pelo chatbot, o criminoso conseguiu realizar um jailbreak após várias tentativas e driblou as barreiras de segurança desse modelo de inteligência artificial.

Uma vez superadas essas limitações, o chatbot Claude passou a gerar instruções detalhadas, incluindo:

  • Identificação de vulnerabilidades em redes governamentais.
  • Geração de scripts de exploração.
  • Automação do roubo de informações.
  • Planejamento de movimentação lateral.
  • Milhares de comandos prontos para execução em sistemas comprometidos.

Quando Claude encontrava limitações técnicas ou se recusava a continuar, o cibercriminoso recorria ao ChatGPT como apoio adicional para refinar táticas, ajustar técnicas de movimentação lateral e avaliar riscos de detecção, segundo informou a empresa de cibersegurança Gambit Security.

A Anthropic confirmou que interrompeu a atividade, proibiu as contas envolvidas e reforçou os controles de seu modelo mais recente, Claude Opus 4.6, projetado para detectar tentativas de exploração. A OpenAI também afirmou ter identificado e bloqueado usos indevidos relacionados.

Entre o material roubado estão:

  • Aproximadamente 195 milhões de registros fiscais.
  • Informações do cadastro eleitoral.
  • Credenciais e dados de servidores públicos.

IA ofensiva e defensiva: uma corrida em aceleração

Ferramentas como o Claude Code podem transformar um cibercriminoso sem experiência em um operador capaz de agir no ritmo e na escala de um grupo criminoso organizado. Ao mesmo tempo, a IA também vem fortalecendo as defesas, permitindo detectar ciberataques potencializados por modelos generativos.

Um exemplo recente, descoberto pela equipe de pesquisa da ESET, é o PromptSpy: um malware para Android distribuído principalmente na Argentina por meio de um aplicativo falso. Esse software utiliza o modelo Google Gemini para analisar em tempo real o que aparece na tela, manipular a interface, impedir seu fechamento e habilitar o controle remoto por meio de um módulo VNC.

Por outro lado, anteriormente, o surgimento de uma prova de conceito inovadora, também identificada pela ESET, tornou se o primeiro ransomware impulsionado por IA, antecipando um ecossistema de ameaças totalmente automatizadas.

Ambos os casos ilustram uma tendência clara: a IA generativa está se tornando um multiplicador das capacidades criminosas, inclusive para cibercriminosos com baixo nível técnico.

Um ponto de inflexão para as prioridades digitais

Este caso demonstra que a inteligência artificial já não é apenas uma ferramenta de produtividade: passou a ser um componente capaz de ampliar de forma drástica as capacidades ofensivas dos atacantes. Nesse novo cenário, a defesa exige estratégias abrangentes que combinem:

  • Políticas de segurança robustas.
  • Modernização da infraestrutura crítica.
  • Educação e treinamento de usuários.
  • Sistemas de monitoramento capazes de detectar atividades anômalas geradas por IA.

Nunca foi tão crucial que as organizações se preparem contra ataques, especialmente porque os humanos que utilizam ferramentas de IA continuam sendo o principal ponto de entrada explorado pelos criminosos.