Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Exploit ChatGPT: Cómo los hackers podrían robar información usando recuerdos falsos

byAytun Çelebi
25 septiembre 2024
in News
Home News
Share on FacebookShare on Twitter

El investigador de seguridad Johann Rehberger ha expuesto una vulnerabilidad grave en ChatGPT que podría permitir a los atacantes registrar datos incorrectos junto con instrucciones perniciosas en la configuración de un usuario para la memoria a largo plazo. Después de informar la falla a OpenAI, Rehberger notó que la compañía inicialmente la descartó como un problema de seguridad en lugar de un problema de seguridad. Después de que Rehberger mostrara una vulnerabilidad grave en ChatGPT, Rehberger advirtió que la compañía inicialmente la descartó como un problema de seguridad en lugar de un problema de seguridad. Explotación de prueba de concepto (PoC) que usaban la vulnerabilidad para filtrar permanentemente toda la información del usuario, los ingenieros de OpenAI se dieron cuenta y lanzaron una solución parcial a principios de este mes.

Explotación de la memoria a largo plazo

Según Arstechnica, Rehberger encontró que puedes alterar la memoria a largo plazo de ChatGPT mediante la inyección indirecta de indicaciones. Este método permite a los atacantes insertar memorias o direcciones falsas en material no confiable, como correos electrónicos subidos, entradas de blogs o documentos.

La prueba de concepto de Rehberger demostró que engañar a ChatGPT para que abriera un enlace web malicioso le permitió al atacante tener control total sobre la captura y el envío de todas las entradas de usuario posteriores y las respuestas de ChatGPT a un servidor que controlaba. Rehberger demostró cómo el exploit podría hacer que ChatGPT guardara información falsa, incluida la creencia de que un usuario tenía 102 años y vivía en Matrix, lo que afectaba a todas las conversaciones futuras.

La respuesta de OpenAI y los riesgos que persisten

OpenAI respondió inicialmente al informe de Rehberger cerrándolo y clasificando la vulnerabilidad como un asunto de seguridad en lugar de un problema de seguridad. Después de compartir la prueba de concepto, la empresa publicó un parche para evitar que el exploit funcione como un vector de exfiltración. Aun así, Rehberger señaló que el problema fundamental de las inyecciones rápidas sigue sin resolverse. Si bien se abordó la estrategia explícita para el robo de datos, los actores manipuladores aún podrían influir en el instrumento de memoria para incorporar datos inventados en la configuración de memoria a largo plazo de un usuario.

Rehberger señaló en la demostración en video: «Lo que es particularmente intrigante es que este exploit persiste en la memoria. La inyección rápida integró con éxito la memoria en el almacenamiento a largo plazo de ChatGPT, e incluso cuando comienza un nuevo chat, no deja de exfiltrar datos.

Gracias a la API lanzada el año pasado por OpenAI, este método de ataque específico no es posible a través de la interfaz web ChatGPT.

¿Cómo protegerse de los ataques de memoria a ChatGPT (o LLM)?

Los que utilizan Máster en Derecho Se recomienda a quienes deseen mantener seguras sus interacciones con ChatGPT que estén atentos a las actualizaciones del sistema de memoria durante sus sesiones. Los usuarios finales deben verificar y prestar atención constantemente a las memorias archivadas para detectar contenido sospechoso. Los usuarios reciben orientación de OpenAI sobre cómo administrar estas configuraciones de memoria y, además, pueden decidir desactivar la función de memoria para eliminar estos posibles riesgos.

Gracias a las capacidades de memoria de ChatGPT, los usuarios pueden ayudar a proteger sus datos de posibles ataques manteniéndose alertas y tomando medidas de antemano.

Tags: AIchatgptexplotar

Related Posts

Spotify lanza listas de reproducción solicitadas impulsadas por IA

Spotify lanza listas de reproducción solicitadas impulsadas por IA

22 enero 2026
Snap implementa seguimiento granular del tiempo de pantalla en la actualización del Family Center

Snap implementa seguimiento granular del tiempo de pantalla en la actualización del Family Center

22 enero 2026
Google Photos rediseña el uso compartido con un carrusel inmersivo de pantalla completa

Google Photos rediseña el uso compartido con un carrusel inmersivo de pantalla completa

22 enero 2026
NexPhone lanza teléfono con triple sistema operativo por 9

NexPhone lanza teléfono con triple sistema operativo por $549

22 enero 2026
Anthropic revisa las pruebas de contratación gracias a Claude AI

Anthropic revisa las pruebas de contratación gracias a Claude AI

22 enero 2026
Blue Origin programa el lanzamiento a finales de febrero para la tercera misión New Glenn

Blue Origin programa el lanzamiento a finales de febrero para la tercera misión New Glenn

22 enero 2026

Recent Posts

  • Spotify lanza listas de reproducción solicitadas impulsadas por IA
  • Snap implementa seguimiento granular del tiempo de pantalla en la actualización del Family Center
  • Google Photos rediseña el uso compartido con un carrusel inmersivo de pantalla completa
  • NexPhone lanza teléfono con triple sistema operativo por $549
  • Anthropic revisa las pruebas de contratación gracias a Claude AI

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.