Google ha confirmado una vulnerabilidad de seguridad que involucra un nuevo ataque impulsado por la IA que puede comprometer las cuentas de Gmail. La compañía señaló que la amenaza «no es específica para Google» y destaca la necesidad de defensas más fuertes contra ataques de inyección inmediatos.
Cómo funciona el rápido ataque de inyección
El ataque utiliza instrucciones maliciosas ocultas dentro de elementos aparentemente inofensivos como correos electrónicos, archivos adjuntos o invitaciones de calendario. Si bien estas instrucciones son invisibles para un usuario humano, un asistente de IA puede leerlas y ejecutarlas. Investigador Eito miyamura demostró la vulnerabilidad en un video publicado en X.
Obtuvimos chatgpt para filtrar sus datos de correo electrónico privados. ¿Todo lo que necesitas? La dirección de correo electrónico de la víctima. Los agentes de IA como ChatGPT siguen sus comandos, no su sentido común … Con solo su correo electrónico, logramos exfiltrar toda su información privada.
https://twitter.com/eito_miyamura/status/1966541235306237985 El ataque puede ser activado por una invitación de calendario especialmente elaborada que el usuario ni siquiera necesita aceptar. Cuando el usuario le pide a su asistente de IA que realice una tarea de rutina como verificar su calendario, la IA lee el comando oculto en la invitación. El comando malicioso luego le indica a la IA que busque los correos electrónicos privados del usuario y envíe los datos al atacante.
Cómo proteger su cuenta y la respuesta de Google
Google advirtió anteriormente sobre este tipo de amenaza en junio, afirmando que las instrucciones integradas en documentos o invitaciones de calendario podrían instruir a la IA a «exfiltrar los datos del usuario o ejecutar otras acciones deshonestas». La compañía ahora está implementando defensas y asesorando a los usuarios sobre cómo protegerse.
- Habilite la configuración de «remitentes conocidos» en el calendario de Google: Google afirma que esta es una forma efectiva de evitar que las invitaciones maliciosas aparezcan automáticamente en su calendario. Es menos probable que el ataque funcione a menos que el usuario haya interactuado previamente con el atacante o haya cambiado esta configuración predeterminada.
- Google está entrenando a sus modelos de IA para resistir estos ataques: La compañía dice que su capacitación con datos adversos ha «mejorado significativamente nuestras defensas contra ataques de inyección indirecta en los modelos Gemini 2.5».
- Se están implementando nuevos modelos de detección: Google está implementando modelos propietarios de aprendizaje automático que pueden detectar y neutralizar las indicaciones maliciosas en correos electrónicos y archivos antes de que se ejecuten.
RecordarLa IA puede ser súper inteligente, pero puede ser engañada y impulsada de maneras increíblemente tontas para filtrar sus datos.





