Una falla de seguridad de severidad crítica (CVSS 9.3) ha sido descubierta en langchain-core, la librería fundamental para el desarrollo de aplicaciones de IA, permitiendo a los atacantes robar claves API y manipular el comportamiento de los modelos.
El ecosistema de la Inteligencia Artificial tiene una nueva pesadilla antes de fin de año. Investigadores de seguridad han revelado una vulnerabilidad crítica, apodada “LangGrinch”, que afecta tanto a la versión de Python como a la de JavaScript de LangChain, el framework más popular para construir aplicaciones basadas en Grandes Modelos de Lenguaje (LLMs).
La vulnerabilidad, rastreada como CVE-2025-68664 (para Python) y CVE-2025-68665 (para JS), reside en el corazón mismo de la biblioteca, lo que significa que casi cualquier aplicación que utilice LangChain sin parches recientes está en riesgo inmediato.
El Fallo: Inyección de Serialización
El problema se encuentra en las funciones de serialización dumps() y dumpd() de la librería. LangChain no valida correctamente los datos de entrada que contienen la clave especial “lc”.
En términos técnicos:
- LangChain utiliza la clave “lc” para identificar y reconstruir objetos específicos durante el proceso de deserialización.
- Un atacante puede inyectar una carga maliciosa (payload) que contenga esta estructura de clave dentro de un prompt o entrada de usuario.
- Al procesar esta entrada, el sistema trata los datos maliciosos como un objeto legítimo de LangChain en lugar de texto plano, permitiendo la ejecución de acciones no autorizadas.
Impacto Devastador: Robo de Secretos
Lo que hace a “LangGrinch” particularmente peligroso es su capacidad para extraer secretos del entorno.
Muchos desarrolladores configuran sus aplicaciones de LangChain con la opción secrets_from_env=True. Al explotar esta falla, un atacante puede obligar a la aplicación a leer variables de entorno (como claves de OpenAI, Anthropic, o credenciales de bases de datos) y enviarlas de vuelta o utilizarlas para instanciar clases no autorizadas. Además, facilita la “inyección de prompts” a un nivel profundo, permitiendo manipular las respuestas del modelo de IA saltándose las barreras de seguridad.
Versiones Afectadas y Solución
La vulnerabilidad afecta a las librerías langchain-core y langchain.js. Dada la puntuación de 9.3/10, la explotación es considerada trivial si el atacante puede interactuar con el input de la aplicación.
Recomendación Inmediata: Los desarrolladores y equipos de DevSecOps deben actualizar sus dependencias de inmediato a las versiones parcheadas más recientes liberadas por los mantenedores del proyecto esta semana.
- Python: Actualizar langchain-core a la última versión disponible en PyPI.
- JavaScript/Node: Actualizar langchain a la última versión en npm.




