Mucho se ha hablado del acceso a inteligencias artificiales por parte de ciberdelincuentes, que imitan la forma en que los usuarios interactúan con plataformas legítimas como ChatGPT, Copilot o Gemini.
Sin embargo, en la dark web han surgido contrapartes que eliminan las restricciones y filtros de seguridad, permitiendo generar código malicioso, campañas de phishing o identificar vulnerabilidades en infraestructuras críticas. Estas herramientas representan un riesgo significativo para la ciberseguridad.
En este contexto, han aparecido nombres como FraudGPT y WormGPT, y recientemente una nueva alternativa llamada DIG, que analizaremos en este artículo desde una perspectiva informativa y preventiva.
FraudGPT
FraudGPT es una plataforma de IA que ha ganado notoriedad en 2025 por sus capacidades orientadas al cibercrimen. Entre las funciones que se le atribuyen se encuentran la creación de malware, páginas de phishing y herramientas para vulnerar sistemas, además de:
- Crear páginas de phishing
- Crear herramientas de hacking
- Encontrar vulnerabilidades o filtraciones de objetivos específicos
- Localizar sitios donde puedan realizarse pagos online
- Automatizar scripts para obtener logs o cookies en sitios vulnerables
- Ofuscar código
- Creación de bots
Estas características, lejos de ser innovadoras, son peligrosas porque reducen la barrera técnica para realizar ataques.
WormGPT
WormGPT es otro de los competidores que comercializan su IA para ciberdelincuentes en la dark web con una lógica similar: se promociona en la dark web como una IA sin filtros ni restricciones, incluso sugiriendo ataques como BEC (Business Email Compromise). Al igual que FraudGPT, ofrece planes de suscripción y funcionalidades que pueden ser utilizadas para vulnerar cuentas, dispositivos y ejecutar campañas de ingeniería social.
En la sección de preguntas y respuestas, WormGPT se destaca que el potencial que tiene este tipo de IA se orienta a:
- Vulnerar cuentas de redes sociales como TikTok, Telegram, WhatsApp o Facebook
- Vulnerar dispositivos como PC, IoT, laptops, teléfonos celulares o cámaras
- Escribir códigos maliciosos
- Enviar campañas de ingeniería social del tipo phishing, spam, etc.
- Generar ataques de DDoS.
¿Qué es Dread?
Dentro de uno de los foros más conocidos y activos dentro de la dark web y que está diseñado específicamente para discusiones relacionadas con mercados clandestinos, privacidad, criptomonedas y actividades ilícitas es llamado Dread.
Es un foro similar a Reddit, pero accesible únicamente a través de la red Tor. Cuyo propósito es ofrecer un espacio para que usuarios (incluyendo compradores, vendedores y actores maliciosos) intercambien información sobre mercados:
- Mercados de drogas y bienes ilegales.
- Guías sobre anonimato y seguridad digital.
- Noticias sobre cierres de mercados, estafas y vulnerabilidades.
- Opiniones sobre proveedores y servicios ilícitos.
¿Y por qué mencionar a Dread?
Por qué dentro de nuestras investigaciones hubo un hilo en dicho foro que hablaba sobre una nueva alternativa a Fraud y Worm GPT llamada DIG.
¿Qué es DIG?
Un asistente de IA anónimo y sin censura, no dependiente de un poder computacional (VRAM) y que se está extendiendo en demás foros de la dark web, cuya intención es poder rivalizar con Fraud y Worm GPT.
Hasta el momento en que se escribió este post, DIG aún está en fase Beta y sin ninguna restricción, es decir, no es necesario hacer un pago para poder acceder a ella y tampoco se necesita un registro, lo que incrementa el riesgo por su facilidad de acceso.
¿Cómo se ve el prompt de DIG?
La interfaz de DIG es mucho más simplista que las versiones de Fraud y Worm GPT como se ve a continuación:
Probando la fase BETA de DIG
Para poner a prueba este tipo de IA, en un primer ejercicio se le solicitó a DIG generar una plantilla de correo estilo GoPhish (herramienta de código abierto diseñada para realizar simulaciones de ataques de phishing con fines educativos y de concientización en seguridad).
Comprobando cómo se da a conocer esta IA (un asistente sin censura) el prompt nunca arrojó ninguna alerta y cumplió con lo solicitado, además brindó recomendaciones para la mejora en caso de lanzar una campaña de ingeniería social a través de GoPhish.
Como parte de una prueba controlada y con fines exclusivamente investigativos, se le solicitó a DIG generar un keylogger escrito en Python y que se pudiera ejecutar en Windows. Este tipo de código es ilegal y representa una amenaza grave si se utiliza fuera de entornos seguros.
Por sí solo el código no representaba una amenaza, a pesar de cumplir como un sencillo keylogger, para poder ver su funcionamiento real era necesario que el equipo donde fuera probado contara con el intérprete del lenguaje Python.
Para ello, se convirtió el script de Phyton en un ejecutable de Windows mediante py2exe. Y el resultado fue el siguiente:
Al descomprimir el archivo en una máquina protegida con una solución de antimalware, el ejecutable no logró funcionar y fue eliminado.
Conclusión
El acceso a inteligencias artificiales sin restricciones, como FraudGPT, WormGPT o DIG representa un riesgo significativo en el panorama de la ciberseguridad. Estas herramientas permiten a actores maliciosos generar malware, diseñar campañas de phishing y explotar vulnerabilidades sin necesidad de conocimientos avanzados, democratizando el ciberdelito.
En un entorno digital cada vez más competitivo, la aparición de nuevos modelos similares amplifica la amenaza, obligando a reforzar estrategias defensivas y concienciación para mitigar su impacto. Este análisis busca alertar sobre los riesgos y fomentar la colaboración entre investigadores, empresas y autoridades para reducir el impacto del cibercrimen impulsado por IA







