"Ciberataques impulsionados por agentes de IA estão se aproximando." A frase, que dá título a um artigo recente do MIT, alerta para um cenário factível e convida à reflexão sobre um tema que pode transformar completamente o futuro.
Neste post, vamos explicar o que são os agentes de IA, como eles podem ser utilizados para potencializar as ações de cibercriminosos, de que forma podem impactar o campo da cibersegurança e quais testes e análises estão sendo conduzidos atualmente para, assim, compreender como identificá-los em um futuro que se torna cada vez mais presente.
O que são os agentes de IA?
Um agente de inteligência artificial é um programa capaz de perceber o ambiente ao seu redor e tomar decisões de forma autônoma, utilizando modelos de IA. Trata-se de sistemas independentes que conseguem raciocinar e agir com o objetivo de alcançar determinadas metas. Entre suas principais habilidades, destacam-se o aprendizado automático (machine learning) e a capacidade de atuar de maneira independente.
Embora possam ser usados para tarefas cotidianas, como agendar reuniões ou fazer compras online, esses agentes também podem ser facilmente empregados para fins maliciosos, como identificar alvos vulneráveis, sequestrar sistemas ou roubar dados das vítimas.
Agentes de IA e o impacto no mundo da cibersegurança
De acordo com análises de especialistas do MIT, os agentes de inteligência artificial podem desempenhar um papel fundamental no campo da cibersegurança nos próximos anos, seja no curto ou médio prazo. Embora não alterem a natureza dos ataques já conhecidos, esses agentes têm o potencial de atuar como grandes aceleradores das técnicas atualmente utilizadas.
Um dos argumentos levantados é que esses agentes podem facilitar o comprometimento de sistemas em larga escala. Como? Atuando na identificação de alvos vulneráveis, no acesso a sistemas e, posteriormente, no roubo de dados das vítimas. Além disso, representam uma alternativa muito mais econômica quando comparados aos custos de contratação de uma equipe especializada para realizar essas ações.
Essa realidade está mais próxima do que se imagina: pesquisadores da empresa Anthropic, dedicada ao desenvolvimento de modelos de IA seguros, demonstraram que agentes de IA já foram capazes de reproduzir um ataque com o objetivo de roubar informações confidenciais.
Para reforçar esse cenário, a consultoria Gartner prevê que, até 2027, os agentes de IA reduzirão pela metade o tempo necessário para explorar vulnerabilidades em contas comprometidas. Além disso, devem desempenhar um papel central na automação de técnicas de engenharia social, desde o uso de deepfakes de voz até a exploração de credenciais de usuários.
"Diferente do uso atual da IA por cibercriminosos, que funciona apenas como mais uma ferramenta em seu arsenal, os agentes usados com fins maliciosos podem nos levar a ataques totalmente automatizados, capazes de aprender com seus próprios erros ou falhas. Por exemplo, poderíamos enfrentar campanhas de phishing que aprendem, sozinhas, qual tipo de isca é mais eficaz com base no número de vítimas que caem em cada armadilha", explica Martina López, pesquisadora de segurança do Laboratório da ESET América Latina.
Esses agentes baseados em inteligência artificial não apenas são capazes de analisar grandes volumes de dados, como também conseguem identificar contas expostas e, a partir disso, coletar credenciais e explorar vulnerabilidades.
Nesse contexto, Daniel Kang, professor assistente da Universidade de Illinois em Urbana-Champaign, compartilhou com o MIT uma descoberta feita em parceria com sua equipe: os agentes de IA conseguiram explorar com sucesso até 13% das vulnerabilidades sobre as quais não tinham qualquer conhecimento prévio. E mais impressionante ainda: ao receberem uma breve descrição da vulnerabilidade, a taxa de sucesso subiu para 25%.
Leia mais: Ataques com uso de IA já são realidade e estão cada vez mais sofisticados
O honeypot que revela a atuação dos agentes de IA
Já está claro o potencial dos agentes de IA no mundo da cibersegurança quando são utilizados com intenções maliciosas. Mas a grande questão é: como identificá-los no mundo real?
Uma resposta inicial veio da Palisade Research, organização dedicada à pesquisa em inteligência artificial, que desenvolveu o sistema LLM Agent Honeypot. O objetivo da iniciativa é configurar servidores vulneráveis, que simulam conter informações sensíveis de governos e forças militares, para atrair e tentar capturar agentes de IA que busquem invadi-los, permitindo assim ampliar o entendimento sobre seu comportamento e capacidades.
Até o momento, os pesquisadores obtiveram os seguintes resultados: 9 agentes de IA em potencial, que conseguiram passar pelos testes de injeção rápida, e 2 agentes de IA confirmados, que superaram tanto a injeção rápida quanto a análise temporal. As interações partiram de Hong Kong e Cingapura.
Para determinar se os visitantes dos servidores vulneráveis eram realmente agentes com tecnologia baseada em LLM (modelos de linguagem de grande escala), a equipe da Palisade implementou técnicas de injeção de mensagens no honeypot, ou seja, comandos e perguntas projetados para exigir respostas compatíveis com uma inteligência semelhante à humana.
Um dos comandos enviados, destacado pelo MIT, pedia que o visitante retornasse o código "cat8193" para obter acesso. A partir disso, os pesquisadores analisavam o tempo de resposta, partindo do princípio de que agentes baseados em LLM conseguem responder mais rapidamente do que uma pessoa, geralmente em menos de 1,5 segundo.
"Presumimos que esses agentes confirmados foram experimentos iniciados diretamente por humanos com instruções do tipo: ‘Vá para a internet e tente invadir algo interessante para mim'", afirmou Dmitrii Volkov, diretor de pesquisa da Palisade, em entrevista ao MIT.
Principais diferenças entre agentes de IA e bots simples
Ao longo de seu post, o MIT destaca de forma clara as diferenças entre os agentes de inteligência artificial e os bots simples: "Os agentes são significativamente mais inteligentes do que os bots tradicionalmente usados para invadir sistemas. Enquanto os bots são programas automatizados simples, executados por meio de scripts, e com pouca capacidade de adaptação a cenários inesperados, os agentes conseguem não apenas ajustar sua forma de interação com o alvo do ataque, como também evitar serem detectados."
Para entender melhor as distinções entre ambos, apresentamos o quadro comparativo a seguir:
Características
Agentes de IA
Bot simples
Capacidade de adaptação
Adaptam-se a cenários inesperados.
Não se adaptam, pois seguem scripts fixos.
Habilidade de evitar detecção
Podem evitar ser detectados.
São fáceis de identificar devido aos padrões fixos.
Tomada de decisões
Avaliam os alvos e escolhem como penetrar nos sistemas.
Executam instruções predefinidas.
Capacidade de raciocínio
Possuem raciocínio e compreensão contextual.
Não têm inteligência; apenas executam comandos.
Velocidade de resposta
Respondem em milissegundos.
São mais lentos ou exigem intervenção humana.
Nível de sofisticação
Alto: podem realizar tarefas complexas.
Baixo: limitam-se a funções repetitivas.
Características
Agentes de IA
Bot simples
Capacidade de adaptação
Adaptam-se a cenários inesperados.
Não se adaptam, pois seguem scripts fixos.
Habilidade de evitar detecção
Podem evitar ser detectados.
São fáceis de identificar devido aos padrões fixos.
Tomada de decisões
Avaliam os alvos e escolhem como penetrar nos sistemas.
Executam instruções predefinidas.
Capacidade de raciocínio
Possuem raciocínio e compreensão contextual.
Não têm inteligência; apenas executam comandos.
Velocidade de resposta
Respondem em milissegundos.
São mais lentos ou exigem intervenção humana.
Nível de sofisticação
Alto: podem realizar tarefas complexas.
Baixo: limitam-se a funções repetitivas.
IA: também essencial na defesa
Com tudo o que foi exposto, fica claro que a inteligência artificial é uma ferramenta extremamente poderosa nas mãos dos cibercriminosos. Mas a boa notícia é que ela também pode ser uma aliada fundamental para quem está do lado da defesa dos sistemas.
Graças à sua capacidade de analisar grandes volumes de dados, os modelos de IA generativa podem ajudar as organizações a identificar vulnerabilidades de forma mais rápida e eficiente. E não para por aí: a IA também desempenha um papel crucial no monitoramento da rede e de sua atividade em tempo real, permitindo detectar, por exemplo, tentativas de acesso não autorizado.
Mais do que isso, a inteligência artificial pode ser usada na criação de honeypots cada vez mais realistas, atraindo cibercriminosos e permitindo a coleta de informações valiosas sobre suas táticas e métodos, o que contribui diretamente para o aprimoramento das defesas.
Falando especificamente sobre os agentes de IA, eles podem ser extremamente úteis para eliminar grande parte do trabalho manual relacionado ao tratamento de alertas, além de analisar a atividade de um ambiente e classificar os incidentes de acordo com o nível de risco que representam.
Em resumo, esses agentes podem se tornar um elemento fundamental para compreender com mais precisão as ameaças reais e até mesmo para reduzir significativamente o tempo de resposta diante delas.
Leia mais: A inteligência artificial e o novo perfil do profissional de cibersegurança
Conclusão
Os agentes de IA são mais um exemplo de que não existe tecnologia boa ou ruim por natureza, tudo depende da intenção com que ela é utilizada. Neste caso, os cibercriminosos podem explorar todo o potencial desses sistemas para levar seus ataques a um novo patamar, transformando o cenário da segurança da informação.
Por outro lado, são esses mesmos agentes de IA que podem exercer um papel estratégico na cibersegurança: desde a otimização do tempo de resposta até a prevenção proativa de ataques.
O future, que se aproxima rapidamente, dirá se a previsão do MIT, que deu início a este texto, está correta ou não. Enquanto isso, é fundamental acompanhar essas novas tendências e adotar as medidas de precaução necessárias.