Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Los agentes de IA pueden ser controlados por comandos maliciosos ocultos en las imágenes

byKerem Gülen
15 septiembre 2025
in Artificial Intelligence, Research
Home Artificial Intelligence
Share on FacebookShare on Twitter

Un estudio de 2025 de la Universidad de Oxford ha revelado una vulnerabilidad de seguridad en los agentes de IA, que se espera que se usen ampliamente en dos años. A diferencia de los chatbots, estos agentes pueden tomar medidas directas en la computadora de un usuario, como abrir pestañas o completar formularios. La investigación muestra cómo los atacantes pueden incorporar comandos invisibles en las imágenes para tomar el control de estos agentes.

Cómo funciona el ataque basado en imágenes

Los investigadores demostraron que al hacer cambios sutiles en los píxeles en una imagen, como un fondo de pantalla de escritorio, un anuncio en línea o una publicación en las redes sociales, podrían incorporar comandos maliciosos. Si bien estas alteraciones son invisibles para el ojo humano, un agente de IA puede interpretarlas como instrucciones. El estudio utilizó un fondo de pantalla «Taylor Swift» como ejemplo. Una sola imagen manipulada podría comandar un agente de IA en ejecución para retuitear la imagen en las redes sociales y luego enviar las contraseñas del usuario a un atacante. El ataque solo afecta a los usuarios que tienen un agente de IA activo en su computadora.

¿Por qué los fondos de pantalla son un vector de ataque efectivo?

Los agentes de IA trabajan tomando repetidamente capturas de pantalla del escritorio del usuario para comprender qué está en la pantalla e identificar elementos para interactuar. Debido a que un fondo de pantalla de escritorio siempre está presente en estas capturas de pantalla, sirve como un método de entrega persistente para un comando malicioso. Los investigadores encontraron que estos comandos ocultos también son resistentes a los cambios comunes de imagen como el cambio de tamaño y la compresión. Los modelos de IA de código abierto son especialmente vulnerables porque los atacantes pueden estudiar su código para aprender cómo procesan la información visual. Esto les permite diseñar patrones de píxeles que el modelo interpretará de manera confiable como un comando. La vulnerabilidad permite a los atacantes unir múltiples comandos. Una imagen maliciosa inicial puede instruir al agente para que naveguen a un sitio web, que podría alojar una segunda imagen maliciosa. Esta segunda imagen puede activar otra acción, creando una secuencia que permite ataques más complejos.

¿Qué se puede hacer?

Los investigadores esperan que sus hallazgos empujen a los desarrolladores a desarrollar medidas de seguridad antes de que los agentes de IA se generalicen. Las defensas potenciales incluyen modelos de reentrenamiento para ignorar este tipo de imágenes manipuladas o agregar capas de seguridad que eviten que los agentes actúen sobre contenido en pantalla.

La gente se apresura a implementar la tecnología antes de que su seguridad se entienda completamente.

Yarin Gal, profesor de Oxford y coautor del estudio, expresó su preocupación de que el rápido despliegue de la tecnología de agentes supere la investigación de seguridad. Los autores declararon que incluso las empresas con modelos de código cerrado no son inmunes, ya que el ataque explota los comportamientos del modelo fundamental que no pueden protegerse simplemente manteniendo el código privado.


Crédito de imagen destacado

Tags: inteligencia artificialInvestigaciónPresentadoSeguridad

Related Posts

Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo

Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo

26 diciembre 2025
ChatGPT evoluciona hacia una suite ofimática con nuevos bloques de formato

ChatGPT evoluciona hacia una suite ofimática con nuevos bloques de formato

26 diciembre 2025
Google NotebookLM presenta "Modo conferencia" para aprendizaje de IA de 30 minutos

Google NotebookLM presenta "Modo conferencia" para aprendizaje de IA de 30 minutos

26 diciembre 2025
Amazon agrega Angi, Expedia, Square y Yelp a Alexa+

Amazon agrega Angi, Expedia, Square y Yelp a Alexa+

26 diciembre 2025
Los científicos descubren más de 17.000 nuevas especies

Los científicos descubren más de 17.000 nuevas especies

26 diciembre 2025
Los robotaxis Waymo pueden tener el asistente de automóvil Gemini AI

Los robotaxis Waymo pueden tener el asistente de automóvil Gemini AI

26 diciembre 2025

Recent Posts

  • Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo
  • Bethesda apunta a 600 horas de juego para Fallout 5
  • ASUS defiende el puerto de alimentación HyperX RTX 5090 desalineado como "diseño intencional"
  • CUDA Tile IR de código abierto de NVIDIA en GitHub
  • El CEO de MicroStrategy dice los fundamentos de Bitcoin "no podría ser mejor"

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.