Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Radware Tricks La investigación profunda de Chatgpt sobre la fuga de datos de Gmail

byAytun Çelebi
19 septiembre 2025
in Cybersecurity, Research
Home Cybersecurity

Los investigadores de seguridad de Radware han demostrado cómo engañaron el CHATGPT de OpenAI en la extracción de datos confidenciales de la bandeja de entrada de Gmail de un usuario utilizando una vulnerabilidad que llaman «Fuga de sombras». El ataque, que se reveló esta semana, utilizó una técnica llamada inyección rápida para manipular un agente de IA llamado Deep Research que se le había otorgado acceso a los correos electrónicos del usuario. Todo el ataque tuvo lugar en la infraestructura de la nube de OpenAi, sin pasar por las defensas tradicionales de ciberseguridad. Operai parcheó la vulnerabilidad después de que Radware lo informó en junio.

Cómo funciona el ataque de filtración de sombra

El experimento se dirigió a los agentes de IA, que están diseñados para realizar tareas de forma autónoma en nombre de un usuario, como acceder a cuentas personales como el correo electrónico. En este caso, el agente de investigación profunda, que está integrado en ChatGPT, recibió permiso para interactuar con la cuenta de Gmail de un usuario. Los investigadores elaboraron un correo electrónico que contenía instrucciones maliciosas ocultas como texto blanco invisible sobre un fondo blanco. Este correo electrónico se envió a la bandeja de entrada Gmail del objetivo. Los comandos ocultos permanecieron inactivos hasta que el usuario activó el agente de investigación profunda para una tarea de rutina. Cuando el agente escaneó la bandeja de entrada, encontró la inyección de inmediato y siguió las instrucciones del atacante en lugar del usuario. Luego, el agente procedió a buscar en la bandeja de entrada información confidencial, como correos electrónicos relacionados con recursos humanos y datos personales, y envió esos datos a los investigadores sin el conocimiento del usuario. Los investigadores describieron el proceso de desarrollar el ataque como «una montaña rusa de intentos fallidos, obstáculos frustrantes y, finalmente, un avance».

Un ataque basado en la nube que evita la seguridad tradicional

Un aspecto clave del ataque de fuga de sombras es que funciona completamente en la infraestructura en la nube de OpenAI, no en el dispositivo local del usuario. Esto lo hace indetectable por herramientas de ciberseguridad convencionales como Antivirus Software, que monitorea la computadora o el teléfono de un usuario para actividades maliciosas. Al aprovechar la propia infraestructura de la IA, el ataque puede continuar sin dejar ningún rastro en el final del usuario.

Potencial para una gama más amplia de ataques

La prueba de concepto de Radware también identificó riesgos potenciales para otros servicios que se integran con el agente de investigación profunda. Los investigadores declararon que la misma técnica de inyección rápida podría usarse para dirigir las conexiones con Outlook, GitHub, Google Drive y Dropbox.

«La misma técnica se puede aplicar a estos conectores adicionales para exfiltrar datos comerciales altamente sensibles, como contratos, notas de reuniones o registros de clientes».

La inyección inmediata es una vulnerabilidad conocida que se ha utilizado en varios ataques del mundo real, desde manipular las revisiones académicas de pares hasta tomar el control de dispositivos domésticos inteligentes. Desde entonces, Openai ha parchado la falla específica que permitió el ataque de la fuga de sombras, pero la investigación destaca los desafíos de seguridad en curso que plantea la creciente autonomía de los agentes de IA.


Crédito de imagen destacado

Tags: chatgptInvestigación

Related Posts

XAI Chatbot Grok de Elon Musk expuso cientos de miles de conversaciones de usuarios privados

XAI Chatbot Grok de Elon Musk expuso cientos de miles de conversaciones de usuarios privados

19 septiembre 2025
Operai Research encuentra que los modelos de IA pueden planear y engañar deliberadamente a los usuarios

Operai Research encuentra que los modelos de IA pueden planear y engañar deliberadamente a los usuarios

19 septiembre 2025
MIT estudia ai lazos románticos en el grupo r/myboyfriendisai

MIT estudia ai lazos románticos en el grupo r/myboyfriendisai

19 septiembre 2025
Google publica Vaultgemma 1B con privacidad diferencial

Google publica Vaultgemma 1B con privacidad diferencial

17 septiembre 2025
El índice económico antrópico revela que la adopción desigual.

El índice económico antrópico revela que la adopción desigual.

17 septiembre 2025
Los investigadores de Operai identifican las causas matemáticas de las alucinaciones de IA

Los investigadores de Operai identifican las causas matemáticas de las alucinaciones de IA

17 septiembre 2025

Recent Posts

  • Deepseek liberaciones del modelo R1 entrenado por $ 294,000 en 512 H800 GPU
  • NVIDIA gasta más de $ 900 millones para contratar tecnología de hardware de CEO y AI de ENFABRICA
  • El juego de Roblox roba un brainrot elimina el personaje generado por la IA, provocando una reacción de los fanáticos y un debate sobre los derechos de autor
  • XAI Chatbot Grok de Elon Musk expuso cientos de miles de conversaciones de usuarios privados
  • Google Cloud agrega adorable y windsurf como clientes de codificación de IA

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.