Google identifica nuevas familias de malware generadas por Inteligencia Artificial

El equipo Google Threat Intelligence Group (GTIG) ha identificado una transformación significativa en el panorama de amenazas: los adversarios ya no solo utilizan la inteligencia artificial (IA) para tareas de apoyo, sino que están desplegando malware que integra modelos de lenguaje (LLM) en su ejecución activa.

El malware de nueva generación utiliza APIs de modelos de lenguaje para generar código, ofuscarse y optimizar los pasos de ataque sin intervención humana directa, lo que socava las defensas estáticas. 


Nuevas Familias de Malware Impulsadas por IA: 
  • PROMPTFLUX: Es un dropper en VBScript que interactúa con la API del modelo Gemini de Google para generar variaciones de su propio código cada hora, con el fin de evadir detección estática. 
  • PROMPTSTEAL (LameHug): Es un minero de datos en Python que utiliza modelos de lenguaje en Hugging Face para generar comandos de Windows con un solo renglón orientados a recolectar información de sistema y carpetas específicas. 
  • QuietVault: Desarrollado en JavaScript y apuntado a tokens de npm/GitHub; usa herramientas CLI de IA en el host para buscar y exfiltrar otros secretos almacenados. 

Implicaciones Críticas
  • Salto Cualitativo: El malware ya no utiliza la IA solo como apoyo (phishing); la tiene embebida dentro de su código activo, lo que le permite adaptarse, mutar y evadir firmas tradicionales durante su ejecución. 
  • Reducción de Barrera Técnica: Los LLMs reducen la barrera técnica para los atacantes. Scripts y comandos generados automáticamente permiten a grupos con menos recursos escalar su peligrosidad. 
  • Afectación a DevSecOps: La combinación “entorno de desarrollo + CI/CD + IA generativa” abre nuevos vectores, ya que un desarrollador podría accidentalmente incorporar código malicioso. 

Recomendaciones 
  • Detección de Comportamiento: Actualizar detectores de comportamiento y EDR para monitorear scripts que se reescriben, mutan, o la creación de procesos inusuales que intentan invocar APIs de modelos de lenguaje o servicios de generación de texto. 
  • Alertas de Red: Añadir alertas cuando se detecten procesos desconocidos que establecen conexiones dinámicas a APIs públicas de IA o tráfico saliente hacia servicios de cloud IA poco habituales. 
  • Threat Hunting Específico: Realizar threat-hunting específico para familias identificadas (PROMPTFLUX, PROMPTSTEAL, QuietVault). 
  • Endurecimiento de Entornos (TI / DevSecOps): 
  • Mínimo Privilegio en IA: Aplicar el principio de mínimo privilegio: restringir qué cuentas o sistemas pueden acceder a APIs públicas de IA o ejecutar scripts generativos. 
  • Segmentación Estricta: Segmentar los entornos de desarrollo y producción. Las máquinas de desarrollo que utilicen IA generativa deben estar aisladas de sistemas críticos de producción para evitar la propagación del malware. 
  • Formación: Formar al personal sobre los riesgos emergentes: alertar que la IA es un vector de ataque activo y concienciar sobre la descarga de librerías generadas automáticamente. 

Conclusión 

Estamos entrando en una nueva era donde el uso de IA en ciberataques trasciende la productividad del atacante y se integra directamente en el malware activo, con capacidad de generación de código, mutación y evasión. Para las organizaciones, esto significa que los controles deben evolucionar: no basta parchear y filtrar —se deben monitorear patrones de comportamiento, desacoplar entornos de IA generativa y reforzar visibilidad. 

Related Post