Los hackers recurren a archivos PDF weaponizados debido a su capacidad para incorporar códigos o scripts maliciosos dentro de una forma conocida y confiable de PDF, que a menudo no son detectados por las medidas de seguridad.
Si una persona abre uno de estos documentos maliciosos, puede liberar cargas de malware, robar datos sensibles o ejecutar código aleatorio en el dispositivo infectado.
Vulnerabilidad en el Sector
Para los hackers, estas son formas útiles de acceder a sistemas específicos, ya que los PDF son cosas comunes y cotidianas. Investigadores en ciberseguridad de Cofense recientemente descubrieron una campaña maliciosa en la que Rhadamanthys Stealer ha estado utilizando activamente archivos PDF weaponizados para atacar el sector de petróleo y gas.
Rhadamanthys Stealer a través de Archivos PDF Weaponizados
La campaña se centró principalmente en el sector de Petróleo y Gas, pero podría cambiar hacia otros sectores.
Logró alcanzar un alarmante éxito en la entrega de correos electrónicos combinando TTPs como dominios de confianza, redirecciones e imágenes clicables para evadir la seguridad del correo electrónico.
El malware Rhadamanthys Stealer se utilizó para descargar un PDF malicioso durante la cadena de infección.
Estrategias de Engaño y Ataque
Los actores de amenazas intentan usar incidentes vehiculares como señuelos de phishing, creando correos electrónicos que apelen a las emociones.
Cada correo electrónico es diferente, pero todos se resumen en notificaciones del empleador sobre accidentes automovilísticos con la intención de engañar.
Los correos electrónicos tenían asuntos generados aleatoriamente relacionados con incidentes vehiculares, posiblemente utilizando IA para variar la redacción.
Evolución del Ataque
La campaña de ingeniería social sofisticada y las TTP evasivas tenían como objetivo entregar Rhadamanthys Stealer, un malware infostealer avanzado ofrecido como MaaS, que apunta a credenciales, datos sensibles y criptomonedas.
Transición de Amenazas
La campaña Rhadamanthys Stealer surgió poco después de la desarticulación del prolífico grupo LockBit Ransomware-as-a-Service (RaaS), lo que probablemente afectó a los actores de amenazas que anteriormente empleaban los servicios de LockBit.
La sincronización y similitudes entre RaaS y el modelo MaaS del infostealer sugieren que los actores de amenazas hicieron la transición a Rhadamanthys como una alternativa.
Investigación revela riesgos críticos en proveedores de IA
Nuevas investigaciones han encontrado que los proveedores de inteligencia artificial (IA) como servicio, como Hugging Face, son susceptibles a dos riesgos críticos que podrían permitir a actores de amenazas escalar privilegios, obtener acceso cruzado a los modelos de otros clientes e incluso tomar el control de los pipelines de integración y despliegue continuo (CI/CD) de las aplicaciones.
Impacto y peligro potencial
“Los modelos maliciosos representan un riesgo importante para los sistemas de IA, especialmente para los proveedores de IA como servicio porque los posibles atacantes pueden aprovechar estos modelos para realizar ataques entre inquilinos,” explicaron los investigadores. Este peligro podría tener un impacto devastador al permitir a los atacantes acceder a millones de modelos de IA privados almacenados en estos servicios.
Vectores de ataque emergentes
Estos hallazgos llegan en un momento en que los pipelines de aprendizaje automático se han convertido en un nuevo vector de ataque de la cadena de suministro. Repositorios como Hugging Face se han vuelto atractivos para ataques adversariales diseñados para obtener información sensible y acceder a entornos objetivo.
Amenazas identificadas
La investigación identifica dos riesgos principales: la toma de control de la infraestructura de inferencia compartida y la toma de control compartida de CI/CD. Estos riesgos permiten ejecutar modelos no confiables cargados en el servicio y tomar el control de los pipelines de CI/CD para realizar ataques de cadena de suministro.
Medidas de mitigación y soluciones
Para abordar estos problemas, se recomienda implementar IMDSv2 con límite de salto para evitar que los pods accedan a servicios sensibles y habilitar la autenticación multifactor. Además, Hugging Face ha abordado todas las vulnerabilidades identificadas y alienta a los usuarios a utilizar modelos solo de fuentes confiables y a abstenerse de usar archivos pickle en entornos de producción.
Conclusiones y advertencias
La investigación subraya la importancia de ejercer precaución al utilizar modelos de IA no confiables, especialmente en entornos compartidos. Asimismo, destaca la necesidad de ejecutar estos modelos en entornos aislados para evitar consecuencias de seguridad graves.