La semana pasada, el creador de ChatGPT, OpenAI, parchó varias vulnerabilidades graves que podrían haber permitido a los atacantes apoderarse de las cuentas de los usuarios y ver los historiales de chat.
El primero fue un error crítico de engaño del caché web que podría haber permitido a los atacantes acceder a la información del usuario, como nombres, correos electrónicos y tokens de acceso, que la API de OpenAI obtendría del servidor.
Para aprovechar la vulnerabilidad, un atacante podría crear una ruta .css al punto final de la sesión y enviar el enlace a la víctima. Cuando la víctima abre el enlace, la respuesta se almacena en caché y el atacante puede recopilar las credenciales de la víctima y hacerse cargo de su cuenta.
Informado por el CEO y fundador de Shockwave, Gal Nagli, el error se solucionó rápidamente instruyendo al “servidor de almacenamiento en caché para que no atrape el punto final a través de una expresión regular”.
Sin embargo, la solución no fue suficiente para mantener a un atacante fuera de las cuentas de usuario, explica el investigador de seguridad y CISO Ayoub Fathi . Mientras analizaba la solución, descubrió un método de omisión que podría usarse contra otra API de ChatGPT, proporcionando a un atacante acceso a los títulos de conversación de un usuario.
Este fue básicamente otro ataque de engaño de caché web: la respuesta de la API a un enlace ‘/backend-api/conversations’ falsificado se almacenaría en caché, revelando la respuesta HTTP de la víctima, que contiene los títulos de las conversaciones.
Profundizando más, el investigador pudo eludir la corrección de OpenAI para el problema de toma de posesión de la cuenta original, utilizando una nueva carga útil, y descubrió que todas las API de ChatGPT eran vulnerables a la omisión, lo que permitía a un atacante leer los títulos de las conversaciones, los chats completos y el estado de la cuenta.
Fathi dice que trabajó con el equipo de OpenAI para ayudarlos a abordar todos los problemas por completo.
No se emitió ninguna recompensa por errores para ninguno de los investigadores, ya que OpenAI no tiene un programa de recompensas por errores.
Las vulnerabilidades se informaron días después de que OpenAI desconectó ChatGPT para abordar una vulnerabilidad en una biblioteca de cliente Redis de código abierto, que permitía a los usuarios ver los datos de chat de otros usuarios y la información relacionada con el pago.



