En Resumen

  • Google Threat Intelligence Group rastreó cinco cepas distintas de malware habilitado por IA que generan dinámicamente scripts maliciosos y ofuscan código para evadir detección durante la ejecución.
  • PROMPTSTEAL, vinculado al grupo APT28 de Rusia, usa el modelo Qwen alojado en Hugging Face para generar comandos de Windows bajo demanda mediante "creación de código justo a tiempo".
  • El grupo norcoreano UNC1069 usó indebidamente Gemini para localizar datos de billeteras cripto, generar scripts de acceso a almacenamiento cifrado y crear contenido de phishing dirigido a exchanges.

Google advirtió que varios tipos de malware ahora usan large language models (LLMs) durante la ejecución para modificar o generar código, marcando una nueva fase en cómo actores vinculados a estados y criminales están desplegando inteligencia artificial en operaciones en vivo.

En un reporte publicado esta semana, el Google Threat Intelligence Group señaló que ha rastreado al menos cinco cepas distintas de malware habilitado por IA, algunas de las cuales ya han sido usadas en ataques activos y en curso.

Las familias de malware recién identificadas "generan dinámicamente scripts maliciosos, ofuscan su propio código para evadir la detección", al mismo tiempo que hacen uso de modelos de IA "para crear funciones maliciosas bajo demanda", en lugar de tenerlas codificadas de forma rígida en paquetes de malware, afirmó el grupo de inteligencia de amenazas.

Cada variante aprovecha un modelo externo como Gemini o Qwen2.5-Coder durante el tiempo de ejecución para generar u ofuscar código, un método que GTIG denominó "creación de código justo a tiempo".

La técnica representa un cambio respecto al diseño tradicional de malware, donde la lógica del malware típicamente está codificada de forma rígida en el binario.

Al externalizar partes de su funcionalidad a un modelo de IA, el malware puede hacer cambios continuos para endurecerse contra sistemas diseñados para disuadirlo.

Dos de las familias de malware, PROMPTFLUX y PROMPTSTEAL, demuestran cómo los atacantes están integrando modelos de IA directamente en sus operaciones.

El informe técnico de GTIG describe cómo PROMPTFLUX ejecuta un proceso de "Robot Pensante" que llama a la API de Gemini cada hora para reescribir su propio código VBScript, mientras que PROMPTSTEAL, vinculado al grupo APT28 de Rusia, usa el modelo Qwen alojado en Hugging Face para generar comandos de Windows bajo demanda.

El grupo también identificó actividad de un grupo norcoreano conocido como UNC1069 (Masan) que usó indebidamente Gemini.

La unidad de investigación de Google describe al grupo como "un actor de amenazas norcoreano conocido por realizar campañas de robo de criptomonedas aprovechando la ingeniería social", con un uso notable de "lenguaje relacionado con el mantenimiento de computadoras y la recolección de credenciales".

Según Google, las consultas del grupo a Gemini incluían prompts para localizar datos de aplicaciones de billeteras, generar scripts para acceder a almacenamiento cifrado y componer contenido de phishing multilingüe dirigido a empleados de exchanges de criptomonedas.

Según el informe, estas actividades parecían ser parte de un intento más amplio de construir código capaz de robar activos digitales.

Google señaló que ya había deshabilitado las cuentas vinculadas a estas actividades e introducido nuevas salvaguardas para limitar el abuso del modelo, incluyendo filtros de prompt refinados y un monitoreo más estricto del acceso a la API.

Los hallazgos podrían apuntar a una nueva superficie de ataque donde el malware consulta LLMs en tiempo de ejecución para localizar almacenamiento de billeteras, generar scripts de exfiltración personalizados y crear señuelos de phishing altamente creíbles.

Decrypt contactó a Google sobre cómo el nuevo modelo podría cambiar los enfoques para el modelado de amenazas y la atribución, pero aún no ha recibido respuesta.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.