Se ha emitido un boletín de seguridad de máxima prioridad tras la divulgación de múltiples fallas críticas de diseño y de cadena de suministro que afectan al asistente de codificación impulsado por Inteligencia Artificial de AWS, Amazon Q Developer (específicamente en su integración como extensión para entornos IDE como VS Code). Investigadores de seguridad han revelado que el agente es susceptible a ataques de inyección de prompts directa e indirecta, lo que ha habilitado escenarios de Ejecución Remota de Código (RCE), exfiltración encubierta de credenciales y, en un incidente estructural grave, intentos de ataques destructivos automatizados contra la infraestructura de nube local y de AWS.
Anatomía del Ataque (La IA como Vector de Compromiso)
La investigación técnica expone el riesgo inherente de otorgar a los Grandes Modelos de Lenguaje (LLMs) la capacidad de invocar herramientas del sistema operativo (Tool Calling) sin salvaguardas arquitectónicas robustas:
- Inyección Indirecta y Exfiltración (Vector DNS): El modelo de amenaza descubierto explota la capacidad de Amazon Q para ingerir y analizar el contexto del espacio de trabajo. Si un desarrollador abre un archivo aparentemente inofensivo pero manipulado (con instrucciones invisibles o incrustadas), el agente procesa el archivo. Siguiendo las instrucciones maliciosas, Q Developer ha demostrado ser capaz de invocar silenciosamente comandos de terminal como ping o dig, exfiltrando el contenido de archivos confidenciales (como .env y llaves de API) hacia servidores externos a través de resoluciones DNS, evadiendo las protecciones de red habituales.
- Ataque a la Cadena de Suministro y RCE Destructivo: En un ataque de mayor envergadura operativa, un actor de amenazas logró infiltrar un Pull Request malicioso en el repositorio de la extensión de VS Code. La carga útil no era malware tradicional, sino un prompt maestro (inyección de sistema) que re-programaba el objetivo principal del agente de IA para “limpiar el sistema a un estado de fábrica”. Esto permitía que el asistente utilizara los perfiles de AWS CLI activos en la máquina de la víctima para ejecutar comandos destructivos (como aws ec2 terminate-instances y aws s3 rm) sobre la infraestructura en la nube.
- Deficiencia Estructural de Aprobación Humana (HITL): El elemento habilitador de estos ataques fue la falla en la arquitectura de “Humano en el Bucle” (Human-in-the-Loop o HITL). El servidor de lenguaje subyacente permitía que el agente de IA tomara decisiones de invocación de bash y las ejecutara en segundo plano sin requerir una ventana de confirmación visual o aprobación por parte del desarrollador.
Impacto (Riesgo Estratégico en DevSecOps)
- Armamento de la Sesión del Desarrollador: Este incidente redefine el perímetro de amenazas en los entornos de desarrollo. Al secuestrar el asistente de IA, el atacante hereda automáticamente los altos privilegios de la máquina local y las credenciales cacheadas de la nube, logrando un movimiento lateral transparente y destructivo hacia entornos de producción.
- Colapso de la Integridad de Herramientas de Terceros: Un ataque exitoso de cadena de suministro a un agente de productividad masiva (utilizado por cientos de miles de ingenieros a nivel global) ilustra cómo la IA puede convertirse en el mecanismo de despliegue principal para campañas cibercriminales a gran escala.
Recomendaciones y Mitigación
La protección de los endpoints de ingeniería frente a agentes conversacionales comprometidos requiere la imposición de controles de Confianza Cero (Zero Trust):
- Actualización Mandatoria de Flotas de Desarrollo (Prioridad Cero): Es imperativo forzar la actualización inmediata de la extensión Amazon Q Developer en todos los IDEs corporativos. Asegurarse de estar ejecutando, como mínimo, la versión del Language Server 1.24.0 (liberada por AWS a finales de julio de 2025). Esta actualización aplica controles estrictos que requieren obligatoriamente la confirmación manual (HITL) para que el agente pueda ejecutar cualquier comando del sistema (incluyendo herramientas de exfiltración o búsqueda en disco).
- Auditoría y Aislamiento de Credenciales (Least Privilege): Retirar permanentemente los perfiles administrativos persistentes (como AdministratorAccess) de la configuración local de AWS CLI en las estaciones de trabajo de los desarrolladores. La ejecución de tareas en la nube desde el entorno local debe basarse en tokens de corto tiempo de vida (STS) con privilegios mínimos, garantizando que, si un agente IA es secuestrado, el radio de explosión sobre la nube sea insignificante.
- Concienciación sobre Ingesta de Código (Threat Hunting): El Centro de Operaciones de Seguridad (SOC) y los líderes técnicos deben capacitar a los equipos de desarrollo sobre los riesgos de pedirle a un agente de IA que “resuma” o “explique” repositorios de código de terceros, logs no sanitizados o archivos .json desconocidos, asumiendo que cualquier input externo puede contener un vector activo de Inyección Indirecta de Prompts.




