Investigadores de seguridad han alertado sobre el uso creciente y preocupante de modelos de lenguaje avanzados (LLMs), como ChatGPT, por parte de ciberdelincuentes. Aunque estas herramientas fueron creadas para propósitos legítimos, los atacantes las están manipulando para automatizar, escalar y sofisticar sus operaciones de malware y phishing, creando amenazas más difíciles de detectar.
El Lado Oscuro de la IA Generativa
Los hackers están explotando los LLMs para sortear las barreras técnicas y éticas, usándolos para componer y modularizar código malicioso.
- Manipulación de Políticas de Seguridad (Jailbreaking)
Los atacantes no necesitan hackear directamente el modelo; utilizan prompts elusivos y técnicas de jailbreaking (DAN, Developer Mode) para que el LLM ignore sus propias políticas de seguridad. Al disfrazar solicitudes maliciosas como “scripts educativos” o “simulaciones de seguridad”, logran generar fragmentos funcionales de malware que el modelo rechazaría en una consulta directa.
- Generación Modular de Malware
Una de las técnicas más eficientes es la generación modular. El atacante pide a ChatGPT que cree componentes funcionales y aparentemente benignos por separado:
- Un módulo de cifrado.
- Un script de conexión remota.
- Un registrador de pulsaciones (keylogger).
El atacante entonces ensambla estos módulos fuera del entorno del modelo, creando una pieza de malware completa sin necesidad de tener conocimientos avanzados de programación o de crear el código desde cero.
- Automatización y Sofisticación de Ingeniería Social
La IA ha superado el problema de los phishing genéricos o mal redactados. Los hackers usan LLMs para generar mensajes altamente creíbles y contextualizados:
- Correos corporativos con un tono profesional impecable y sin errores gramaticales.
- Mensajes personalizados según el cargo, historial o idioma de la víctima.
- Diálogos simulados convincentes, usados en scams de soporte técnico falso o de romance.
- Malware Adaptativo Impulsado por IA (Tendencia 2025)
Algunos experimentos ya integran modelos ligeros de lenguaje dentro del propio malware. Esto permite que el código malicioso:
- Analice su entorno (SO, idioma, antivirus instalado).
- Decida dinámicamente cómo actuar en función de ese análisis.
- Ajuste sus comandos o rutas de exfiltración.
Esto conduce al malware adaptativo, una amenaza que ajusta su comportamiento en tiempo real para evadir defensas específicas.
Por Qué el Uso de LLMs es Tan Peligroso
La IA no solo ha mejorado las herramientas de los atacantes; ha cambiado el panorama del riesgo cibernético.
- Democratización del Cibercrimen: Desarrollar malware funcional ya no requiere un programador experto, sino solo un usuario con acceso a un LLM (incluso versiones “pirata” como “EvilGPT” o “WormGPT” sin filtros).
- Aumento de la Velocidad de Iteración: Los atacantes pueden producir, probar y mejorar el código en cuestión de minutos, superando la capacidad de respuesta de los equipos de defensa.
- Encubrimiento Lingüístico: Los filtros de phishing tradicionales basados en errores de redacción quedan obsoletos, ya que la IA redacta mejor que un humano promedio, haciendo los ataques de ingeniería social mucho más efectivos.
Recomendaciones
Para Organizaciones
- Supervisión y Política de IA: Implementar políticas estrictas que regulen el uso de herramientas de IA generativa (ChatGPT, Copilot, etc.) dentro de la red corporativa. Bloquear versiones no oficiales de LLMs descargadas de repositorios desconocidos.
- Detección Basada en Comportamiento: Reforzar las herramientas de detección (EDR) para que se centren en el comportamiento del malware, ya que el código generado por IA es a menudo polimórfico y puede evadir las firmas tradicionales.
- Capacitación Avanzada: Entrenar al personal para reconocer mensajes “demasiado bien redactados” o excesivamente personalizados que simulan comunicaciones internas o soporte técnico.
- Integrar IA Defensiva: Utilizar modelos de lenguaje propios para analizar el tráfico de correo y chats en busca de un “estilo sintético” que pueda indicar que el mensaje fue generado por otro LLM.
Para Usuarios
- Desconfianza Sostenida: Mantener una postura de sospecha hacia cualquier mensaje inesperado, incluso si está redactado impecablemente o si simula ser de una fuente conocida.
- Evitar Scripts “Educativos”: No ejecutar código ni macros compartidos por redes o correos con promesas de “scripts educativos”, ya que este es un prompt común usado para eludir filtros.
- Ignorar “Versiones Prohibidas”: Nunca descargar o confiar en herramientas que prometen “versiones sin restricciones” de software de IA, ya que casi siempre contienen malware o backdoors diseñados para comprometer tu sistema.
Referencias
The Hacker News: OpenAI interrumpe operaciones de hackers rusos, norcoreanos y chinos que usaban ChatGPT para ciberataques. https://thehackernews.com/2025/10/openai-disrupts-russian-north-korean.html
The Hacker News: Ciberdelincuentes distribuyen malware disfrazado de instaladores de ChatGPT y otras herramientas de IA. https://thehackernews.com/2025/05/cybercriminals-target-ai-users-with.html
The Hacker News: PromptLock: el primer ransomware potenciado por IA creado con el modelo gpt-oss:20b de OpenAI. https://thehackernews.com/2025/08/someone-created-first-ai-powered.html
Cybersecurity News: GhostGPT: chatbot ilegal basado en IA utilizado para generar malware y exploits. https://cybersecuritynews.com/ghostgpt-jailbreak-version-of-chatgpt
Microsoft Threat Intelligence: “AI vs. AI: Detecting an AI-obfuscated phishing campaign” (Documenta una campaña de phishing donde atacantes usaron código generado por IA para ofuscar su carga útil). https://www.microsoft.com/en-us/security/blog/2025/09/24/ai-vs-ai-detecting-an-ai-obfuscated-phishing-campaign/
Malwarebytes: “ChatGPT Deep Research zero-click vulnerability fixed by OpenAI” (Vulnerabilidad de prompt injection “ShadowLeak” que permitía exfiltrar datos del buzón de correo). https://www.malwarebytes.com/blog/news/2025/09/chatgpt-deep-research-zero-click-vulnerability-fixed-by-openai
University of Sheffield / Investigación Académica: “Security threats in AIs such as ChatGPT revealed by researchers” (Estudio que muestra cómo modelos como ChatGPT pueden ser engañados para producir código malicioso). https://sheffield.ac.uk/news/security-threats-ais-such-chatgpt-revealed-researchers




