Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Radware Tricks La investigación profunda de Chatgpt sobre la fuga de datos de Gmail

byAytun Çelebi
19 septiembre 2025
in Cybersecurity, Research
Home Cybersecurity
Share on FacebookShare on Twitter

Los investigadores de seguridad de Radware han demostrado cómo engañaron el CHATGPT de OpenAI en la extracción de datos confidenciales de la bandeja de entrada de Gmail de un usuario utilizando una vulnerabilidad que llaman «Fuga de sombras». El ataque, que se reveló esta semana, utilizó una técnica llamada inyección rápida para manipular un agente de IA llamado Deep Research que se le había otorgado acceso a los correos electrónicos del usuario. Todo el ataque tuvo lugar en la infraestructura de la nube de OpenAi, sin pasar por las defensas tradicionales de ciberseguridad. Operai parcheó la vulnerabilidad después de que Radware lo informó en junio.

Cómo funciona el ataque de filtración de sombra

El experimento se dirigió a los agentes de IA, que están diseñados para realizar tareas de forma autónoma en nombre de un usuario, como acceder a cuentas personales como el correo electrónico. En este caso, el agente de investigación profunda, que está integrado en ChatGPT, recibió permiso para interactuar con la cuenta de Gmail de un usuario. Los investigadores elaboraron un correo electrónico que contenía instrucciones maliciosas ocultas como texto blanco invisible sobre un fondo blanco. Este correo electrónico se envió a la bandeja de entrada Gmail del objetivo. Los comandos ocultos permanecieron inactivos hasta que el usuario activó el agente de investigación profunda para una tarea de rutina. Cuando el agente escaneó la bandeja de entrada, encontró la inyección de inmediato y siguió las instrucciones del atacante en lugar del usuario. Luego, el agente procedió a buscar en la bandeja de entrada información confidencial, como correos electrónicos relacionados con recursos humanos y datos personales, y envió esos datos a los investigadores sin el conocimiento del usuario. Los investigadores describieron el proceso de desarrollar el ataque como «una montaña rusa de intentos fallidos, obstáculos frustrantes y, finalmente, un avance».

Un ataque basado en la nube que evita la seguridad tradicional

Un aspecto clave del ataque de fuga de sombras es que funciona completamente en la infraestructura en la nube de OpenAI, no en el dispositivo local del usuario. Esto lo hace indetectable por herramientas de ciberseguridad convencionales como Antivirus Software, que monitorea la computadora o el teléfono de un usuario para actividades maliciosas. Al aprovechar la propia infraestructura de la IA, el ataque puede continuar sin dejar ningún rastro en el final del usuario.

Potencial para una gama más amplia de ataques

La prueba de concepto de Radware también identificó riesgos potenciales para otros servicios que se integran con el agente de investigación profunda. Los investigadores declararon que la misma técnica de inyección rápida podría usarse para dirigir las conexiones con Outlook, GitHub, Google Drive y Dropbox.

«La misma técnica se puede aplicar a estos conectores adicionales para exfiltrar datos comerciales altamente sensibles, como contratos, notas de reuniones o registros de clientes».

La inyección inmediata es una vulnerabilidad conocida que se ha utilizado en varios ataques del mundo real, desde manipular las revisiones académicas de pares hasta tomar el control de dispositivos domésticos inteligentes. Desde entonces, Openai ha parchado la falla específica que permitió el ataque de la fuga de sombras, pero la investigación destaca los desafíos de seguridad en curso que plantea la creciente autonomía de los agentes de IA.


Crédito de imagen destacado

Tags: chatgptInvestigación

Related Posts

La violación de datos de Aflac afectó a 22,65 millones de clientes

La violación de datos de Aflac afectó a 22,65 millones de clientes

26 diciembre 2025
La interrupción de AWS afecta a Fortnite y Steam

La interrupción de AWS afecta a Fortnite y Steam

26 diciembre 2025
Los científicos descubren más de 17.000 nuevas especies

Los científicos descubren más de 17.000 nuevas especies

26 diciembre 2025
GPT-5.2 supera la base de referencia de doctorado de expertos con una puntuación científica del 92 %

GPT-5.2 supera la base de referencia de doctorado de expertos con una puntuación científica del 92 %

24 diciembre 2025
La violación de datos de Nissan es real y usted podría verse afectado

La violación de datos de Nissan es real y usted podría verse afectado

23 diciembre 2025
Por qué DIG AI es la IA maliciosa más peligrosa de 2025

Por qué DIG AI es la IA maliciosa más peligrosa de 2025

23 diciembre 2025

Recent Posts

  • Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo
  • Bethesda apunta a 600 horas de juego para Fallout 5
  • ASUS defiende el puerto de alimentación HyperX RTX 5090 desalineado como "diseño intencional"
  • CUDA Tile IR de código abierto de NVIDIA en GitHub
  • El CEO de MicroStrategy dice los fundamentos de Bitcoin "no podría ser mejor"

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.