Hackers convierten a Microsoft Copilot y Grok (xAI) en proxies invisibles para controlar malware

Chat with LIA

Investigadores descubren la técnica “AI as a C2 Proxy”, que abusa de la capacidad de navegación web de los chatbots para enviar comandos a equipos infectados sin levantar sospechas en los firewalls corporativos.

El juego del gato y el ratón en la ciberseguridad acaba de alcanzar un nuevo nivel de sofisticación. Hoy 17 de febrero de 2026, que investigadores han demostrado cómo los asistentes de Inteligencia Artificial legítimos y populares, específicamente Microsoft Copilot y Grok de xAI, pueden ser convertidos en herramientas de espionaje y control de malware, completamente bajo las narices de los defensores de la red.

La táctica, bautizada como “AI as a C2 proxy” (IA como proxy de Comando y Control), representa una evolución aterradora de la técnica Living-off-Trusted-Sites (LOTS), donde los atacantes abusan de servicios confiables para ocultar su tráfico malicioso.


¿Cómo Funciona el Secuestro del Chatbot?

El ataque se aprovecha de una de las funciones más útiles de estos LLMs: su capacidad para conectarse a internet y “leer” páginas web para responder preguntas.

  • El Requisito Previo: El atacante primero debe infectar una máquina dentro de la red corporativa por medios tradicionales (como phishing o explotación de vulnerabilidades).
  • El Prompt Malicioso: El malware instalado en la máquina de la víctima no se conecta a un servidor ruso oscuro o a una IP sospechosa. En su lugar, abre una conexión legítima hacia https://www.google.com/search?q=copilot.microsoft.com o la interfaz de Grok.
  • El Túnel: El malware le pide al chatbot (usando un prompt diseñado) que resuma o lea una URL específica controlada por el atacante.
  • La Respuesta: La IA visita la URL del hacker, lee los comandos cifrados que hay allí, y se los devuelve al malware en su respuesta de chat.

Invisible y Sin Rastro

Lo que hace a esta técnica tan peligrosa es que el tráfico de red generado es 100% legítimo. Para los firewalls corporativos y los equipos de seguridad, simplemente parece que un empleado está chateando con Microsoft Copilot o buscando información.

Además, Se señala que esta técnica no requiere una API key ni una cuenta registrada. Al operar de forma anónima, las tácticas tradicionales de defensa, como revocar credenciales o suspender cuentas comprometidas, se vuelven completamente inútiles.


El Siguiente Nivel: Malware “Pensante”

Los investigadores advierten que la IA no solo sirve como un cable de transporte. Los atacantes pueden pasarle a Copilot los detalles del sistema infectado (sistema operativo, antivirus presente, bases de datos encontradas) y pedirle a la IA que decida “qué hacer a continuación”.

Esto nos acerca a la era de los implantes impulsados por IA, donde el malware puede realizar operaciones de triaje, selección de objetivos y evasión en tiempo real, adaptándose dinámicamente al entorno sin necesidad de que un humano lo dirija a cada paso.


Un Patrón Preocupante

Esta revelación llega apenas semanas después de que Unit 42 (Palo Alto Networks) demostrara otra técnica alarmante: usar llamadas API a LLMs para generar código JavaScript malicioso en tiempo real directamente en el navegador de la víctima, esquivando así los escaneos de seguridad en la red.

A medida que las empresas adoptan masivamente la Inteligencia Artificial, los equipos de seguridad (SOC) se enfrentan al difícil reto de inspeccionar el tráfico de estos asistentes sin romper su funcionalidad o violar la privacidad del usuario.

Related Post