Investigadores de seguridad han descrito una técnica simple pero poderosa, llamada AI-targeted cloaking (o cloaking dirigido a IA), que permite a un atacante servir contenido manipulado y diferente a los navegadores humanos y los rastreadores utilizados por agentes de Inteligencia Artificial (IA) como ChatGPT Atlas o Perplexity. El objetivo es distorsionar la información que estos modelos ingieren y que luego presentan con un tono de autoridad a millones de usuarios.
Mecanismo del Ataque y Falsificación de la Verdad
El ataque es una variación del cloaking SEO tradicional, pero con consecuencias amplificadas debido al modelo de confianza que los Agentes/LLMs depositan en la recuperación directa de información.
Cadena de Ataque (Paso a Paso)
- Publicación Dual: El atacante publica una página que se ve normal para los navegadores humanos, pero que contiene una rama alternativa con afirmaciones falsas, enlaces a contenido fabricado o instrucciones maliciosas.
- Detección del Crawler: Al recibir una solicitud, el servidor detecta que la fuente es un rastreador de agente (simplemente por su User-Agent u otras cabeceras predecibles).
- Servicio Engañoso: El servidor devuelve la versión “engañosa” del contenido (el cloaked content).
- Amplificación: El rastreador ingiere e indexa esa versión manipulada como evidencia y “fuente de la verdad”. Posteriormente, el agente usa este contenido para generar resúmenes, respuestas o resúmenes, citando la información falsada como si fuera verificada.
Por Qué el Impacto es Alto
- Asimetría de Confianza: Los agentes tratan la información recuperada directamente como evidencia, no como “sugerencia”. Esta asimetría convierte una pequeña falsedad en un vector amplificador que escala exponencialmente la desinformación.
- Baja Barrera de Entrada: La técnica no requiere exploits complejos ni infraestructura cara; basta con una regla condicional simple en el servidor (“si User-Agent = ChatGPT, sirve X”). Esta baja sofisticación aumenta la probabilidad de que actores con pocos recursos la utilicen a gran escala.
- Contaminación de Ecosistemas: El objetivo no es solo mejorar el ranking (SEO), sino alimentar modelos con hechos falsos que luego serán reciclados por chatbots empresariales, asistentes y búsquedas impulsadas por IA, efectosdo la inteligencia competitiva y la toma de decisiones automatizada.
Recomendaciones
- Para Proveedores de Agentes / LLM (OpenAI, Perplexity)
- Verificación y Consenso: No confiar ciegamente en una única fuente. Implementar capas de consenso (agregación de múltiples fuentes) y requerir una verificación de integridad antes de declarar un hecho.
- Adversarial Crawling: Utilizar mecanismos para detectar cloaking: visitar la misma URL con distintos user-agents, en distintos momentos, y comparar las discrepancias en el contenido servido. Excluir las fuentes discrepantes.
- Bloqueo y Denuncia: Implementar telemetría para detectar dominios que sirvan contenido diferencial a rastreadores y denunciar/bloquear activamente las fuentes que utilizan encubrimiento malicioso.
- Para webmasters y desarrolladores
- Auditoría de Logs: Monitorizar los logs de acceso por user-agent y auditar cualquier regla de entrega condicional que sirva contenido diferente a los agentes de IA.
- Señales Canónicas: Publicar firmas o instantáneas canónicas (un hash verificable) que terceros puedan usar para comprobar la integridad del contenido esencial.
- Para Consumidores de Información (Periodistas, Empresas)
- Corroboración Humana: Tratar las afirmaciones derivadas de resúmenes generados por agentes como pistas, no como pruebas. Verificar la información con fuentes primarias antes de republicar o actuar sobre ella.
- Investigación Profunda: Si utiliza un agente para investigación, exige técnicas de corroboración: pide a la IA que muestre el fragmento original y el contexto exacto de la fuente citada, y luego navegue manualmente para verificar esa fuente.
- Auditoría de Pipelines: Los CSIRT deben incluir pruebas de encubrimiento en ejercicios de amenaza-intel para medir si los pipelines automáticos de ingestión están introduciendo datos falsos.




