El Grupo de Inteligencia de Amenazas de Google (GTIG) ha identificado una escalada significativa en el uso malicioso de la inteligencia artificial. Los adversarios ya no utilizan la IA sólo para tareas de productividad como redactar correos electrónicos de phishing; Ahora están implementando malware novedoso que utiliza activamente IA durante un ataque para alterar dinámicamente su comportamiento. Esta nueva fase de abuso de la IA implica lo que Google llama IA «justo a tiempo». Por primera vez, GTIG ha identificado familias de malware que utilizan modelos de lenguaje grande (LLM) en mitad de la ejecución. Estas herramientas pueden generar dinámicamente scripts maliciosos u ofuscar su propio código sobre la marcha para evadir la detección, en lugar de depender de funciones codificadas. El informe detalla varias novedades malware familias que utilizan esta técnica. «PROMPTSTEAL», que se observó en operaciones activas, es un minero de datos que consulta una API de Hugging Face a un LLM para generar comandos de Windows para recopilar información del sistema. «QUIETVAULT», también visto en la naturaleza, es un ladrón de credenciales que utiliza herramientas AI CLI instaladas en la máquina de la víctima para buscar secretos adicionales. Otro malware, «FRUITSHELL», contiene mensajes codificados diseñados específicamente para evitar el análisis de los sistemas de seguridad basados en LLM. Google también identificó malware experimental, incluido «PROMPTFLUX», un dropper que utiliza la API de Google Gemini para reescribir repetidamente su propio código fuente para permanecer oculto, y «PROMPTLOCK», un ransomware de prueba de concepto que genera dinámicamente scripts maliciosos en tiempo de ejecución. El informe GTIG también encontró que los actores de amenazas están adaptando técnicas de «ingeniería social» para eludir las barreras de seguridad de la IA. Google observó a actores que se hacían pasar por estudiantes en una competencia de «capturar la bandera» o como investigadores de ciberseguridad para persuadir a Gemini a proporcionar información, como ayuda con el desarrollo de herramientas, que de otro modo sería bloqueada. Los actores patrocinados por el Estado, incluidos los de Corea del Norte, Irán y la República Popular China (RPC), continúan utilizando IA como Gemini para mejorar todas las etapas de sus operaciones, desde el reconocimiento y la creación de señuelos de phishing hasta el desarrollo de infraestructura de comando y control (C2). Además, Google señala que el mercado clandestino de herramientas ilícitas de inteligencia artificial ha madurado en 2025 y ofrecerá herramientas multifuncionales que reducen la barrera de entrada para atacantes menos sofisticados. Google declaró que está interrumpiendo activamente esta actividad al deshabilitar proyectos y cuentas asociadas con estos actores. La compañía enfatizó que está mejorando continuamente sus modelos, incluido Gemini, para hacerlos menos susceptibles a un mal uso y está aplicando la inteligencia para fortalecer sus clasificadores de seguridad.





