Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the fast-indexing-api domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/buwemyhm/public_html/wp-includes/functions.php on line 6121

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the health-check domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/buwemyhm/public_html/wp-includes/functions.php on line 6121
Exploit ChatGPT: Cómo los hackers podrían robar información usando recuerdos falsos - Dataconomy ES
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Exploit ChatGPT: Cómo los hackers podrían robar información usando recuerdos falsos

byAytun Çelebi
25 septiembre 2024
in News
Home News

El investigador de seguridad Johann Rehberger ha expuesto una vulnerabilidad grave en ChatGPT que podría permitir a los atacantes registrar datos incorrectos junto con instrucciones perniciosas en la configuración de un usuario para la memoria a largo plazo. Después de informar la falla a OpenAI, Rehberger notó que la compañía inicialmente la descartó como un problema de seguridad en lugar de un problema de seguridad. Después de que Rehberger mostrara una vulnerabilidad grave en ChatGPT, Rehberger advirtió que la compañía inicialmente la descartó como un problema de seguridad en lugar de un problema de seguridad. Explotación de prueba de concepto (PoC) que usaban la vulnerabilidad para filtrar permanentemente toda la información del usuario, los ingenieros de OpenAI se dieron cuenta y lanzaron una solución parcial a principios de este mes.

Explotación de la memoria a largo plazo

Según Arstechnica, Rehberger encontró que puedes alterar la memoria a largo plazo de ChatGPT mediante la inyección indirecta de indicaciones. Este método permite a los atacantes insertar memorias o direcciones falsas en material no confiable, como correos electrónicos subidos, entradas de blogs o documentos.

La prueba de concepto de Rehberger demostró que engañar a ChatGPT para que abriera un enlace web malicioso le permitió al atacante tener control total sobre la captura y el envío de todas las entradas de usuario posteriores y las respuestas de ChatGPT a un servidor que controlaba. Rehberger demostró cómo el exploit podría hacer que ChatGPT guardara información falsa, incluida la creencia de que un usuario tenía 102 años y vivía en Matrix, lo que afectaba a todas las conversaciones futuras.

La respuesta de OpenAI y los riesgos que persisten

OpenAI respondió inicialmente al informe de Rehberger cerrándolo y clasificando la vulnerabilidad como un asunto de seguridad en lugar de un problema de seguridad. Después de compartir la prueba de concepto, la empresa publicó un parche para evitar que el exploit funcione como un vector de exfiltración. Aun así, Rehberger señaló que el problema fundamental de las inyecciones rápidas sigue sin resolverse. Si bien se abordó la estrategia explícita para el robo de datos, los actores manipuladores aún podrían influir en el instrumento de memoria para incorporar datos inventados en la configuración de memoria a largo plazo de un usuario.

Rehberger señaló en la demostración en video: «Lo que es particularmente intrigante es que este exploit persiste en la memoria. La inyección rápida integró con éxito la memoria en el almacenamiento a largo plazo de ChatGPT, e incluso cuando comienza un nuevo chat, no deja de exfiltrar datos.

Gracias a la API lanzada el año pasado por OpenAI, este método de ataque específico no es posible a través de la interfaz web ChatGPT.

¿Cómo protegerse de los ataques de memoria a ChatGPT (o LLM)?

Los que utilizan Máster en Derecho Se recomienda a quienes deseen mantener seguras sus interacciones con ChatGPT que estén atentos a las actualizaciones del sistema de memoria durante sus sesiones. Los usuarios finales deben verificar y prestar atención constantemente a las memorias archivadas para detectar contenido sospechoso. Los usuarios reciben orientación de OpenAI sobre cómo administrar estas configuraciones de memoria y, además, pueden decidir desactivar la función de memoria para eliminar estos posibles riesgos.

Gracias a las capacidades de memoria de ChatGPT, los usuarios pueden ayudar a proteger sus datos de posibles ataques manteniéndose alertas y tomando medidas de antemano.

Tags: AIchatgptexplotar

Related Posts

Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección

Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección

15 mayo 2025
Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad

Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad

15 mayo 2025
La IA de YouTube ahora sabe cuándo estás a punto de comprar

La IA de YouTube ahora sabe cuándo estás a punto de comprar

15 mayo 2025
El CEO de Soundcloud admite que los términos de IA no eran lo suficientemente claros, emiten nuevos compromisos

El CEO de Soundcloud admite que los términos de IA no eran lo suficientemente claros, emiten nuevos compromisos

15 mayo 2025
¿Listo para un chatgpt que realmente te conozca?

¿Listo para un chatgpt que realmente te conozca?

14 mayo 2025
Su próxima PS5 podría obtener una nueva etiqueta de precio de tarifa.

Su próxima PS5 podría obtener una nueva etiqueta de precio de tarifa.

14 mayo 2025

Recent Posts

  • El impacto de las telas inteligentes en el rendimiento de la ropa táctica
  • Databricks apuesta grande en Postgres sin servidor con su adquisición de neón de $ 1 mil millones
  • Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección
  • Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad
  • Trump obliga a Apple a repensar su estrategia de iPhone de la India

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.