Big Sleep AI de Google ha detectado una vulnerabilidad de día cero en la base de datos SQLite, lo que marca un nuevo capítulo en la detección de fallas de seguridad de la memoria. Descubra cómo este avance podría redefinir la búsqueda de errores.
Big Sleep, una evolución del Proyecto Naptime de Google, fue desarrollado a través de una colaboración entre Project Zero de Google y DeepMind. Su capacidad para analizar confirmaciones de código e identificar fallas que antes no habían sido detectadas por los métodos tradicionales de fuzzing aporta un nuevo enfoque para identificar vulnerabilidades complejas.
¿Qué es la herramienta Big Sleep AI?
gran sueño es la herramienta experimental de inteligencia artificial de búsqueda de errores de Google que aprovecha las capacidades de los LLM para identificar vulnerabilidades en el software. Google creó esta herramienta para ir más allá de las técnicas tradicionales, como la fuzzing, simulando el comportamiento humano y entendiendo el código a un nivel más profundo. A diferencia del fuzzing, que funciona inyectando datos aleatoriamente para desencadenar errores de software, Big Sleep revisa el código para detectar posibles amenazas a la seguridad.
En octubre de 2024, Big Sleep identificó con éxito una vulnerabilidad de desbordamiento del búfer de pila en SQLite. Esta falla, si no se controla, podría haber permitido a los atacantes bloquear la base de datos SQLite o potencialmente ejecutar código arbitrario. El descubrimiento es notable porque se realizó en una versión preliminar de SQLite, lo que garantiza que la vulnerabilidad se corrigió antes de llegar a los usuarios.
Cómo Big Sleep descubrió la vulnerabilidad SQLite
Google encargó a Big Sleep que analizara las confirmaciones recientes del código fuente de SQLite. La IA revisó los cambios, con la ayuda de un mensaje personalizado que proporcionaba contexto para cada alteración del código. Al ejecutar scripts de Python y sesiones de depuración en espacio aislado, Big Sleep identificó una falla sutil: un índice negativo, «-1», utilizado en el código, que podría causar un bloqueo o potencialmente permitir la ejecución del código.
El equipo de Big Sleep documentó este proceso de descubrimiento en una publicación de blog reciente, explicando cómo el agente de IA evaluó cada confirmación, probó las vulnerabilidades del código y luego rastreó la causa del error. Esta vulnerabilidad de desbordamiento del búfer de pila, categorizada como CWE-787, surge cuando el software hace referencia a ubicaciones de memoria fuera de los búferes asignados, lo que resulta en un comportamiento inestable o ejecución de código arbitrario.

Por qué este descubrimiento es importante para la ciberseguridad
- Llenando la brecha difusa: El fuzzing, aunque eficaz, tiene limitaciones. Se esfuerza por descubrir errores complejos y profundamente arraigados en el software. Big Sleep de Google tiene como objetivo abordar estas brechas mediante el uso de LLM para «comprender» el código en lugar de simplemente desencadenar errores aleatorios.
- Detección de errores en tiempo real: La capacidad de Big Sleep para detectar vulnerabilidades durante el desarrollo del código reduce las posibilidades de que los errores lleguen a producción. Al identificar fallas antes del lanzamiento, Big Sleep minimiza las posibles ventanas de vulnerabilidad para los atacantes.
- Seguridad automatizada a escala: La búsqueda de errores tradicional requiere mucho tiempo y experiencia humana. Big Sleep, con su enfoque basado en IA, podría democratizar la detección de errores al automatizar y acelerar el proceso.
Cómo se compara Big Sleep con otras herramientas de seguridad impulsadas por IA
Google afirma que el objetivo de Big Sleep es detectar problemas de seguridad de la memoria en software ampliamente utilizado, un área que suele ser un desafío para las herramientas de inteligencia artificial convencionales. Por ejemplo, Vulnhuntr de Protect AI, una herramienta de inteligencia artificial respaldada por Claude de Anthropic, está diseñada para detectar vulnerabilidades de día cero en bases de código Python, pero se centra en fallas no relacionadas con la memoria. Según un portavoz de Google, «Big Sleep descubrió el primer problema desconocido de seguridad de memoria explotable en software ampliamente utilizado en el mundo real».
Al atacar tipos de errores específicos, Big Sleep y Vulnhuntr se complementan, lo que sugiere un futuro en el que los agentes impulsados por IA puedan especializarse en diferentes aspectos de la ciberseguridad.
Google ve el éxito de Big Sleep como un paso importante hacia la integración IA en ciberseguridad defensas. El equipo de Big Sleep de Google afirmó: “Creemos que este trabajo tiene un enorme potencial defensivo. La fuzzing ha ayudado significativamente, pero necesitamos un enfoque que pueda ayudar a los defensores a encontrar los errores que son difíciles (o imposibles) de encontrar mediante la fuzzing”.
El equipo destacó la importancia de la IA en las medidas de seguridad preventivas, donde las vulnerabilidades se identifican y parchean antes de que los atacantes puedan descubrirlas.

Naturaleza experimental del gran sueño
Si bien el éxito de Big Sleep al detectar la vulnerabilidad SQLite es prometedor, Google ha señalado que la tecnología sigue siendo experimental. El modelo de IA aún se está perfeccionando y el equipo reconoció que un fuzzer específico para un objetivo podría igualar o superar sus capacidades actuales en ciertos casos.
A pesar de estas advertencias, el equipo sigue siendo optimista y considera que esto es el comienzo de un papel más importante de la IA en la detección de vulnerabilidades. Al probar continuamente las capacidades de Big Sleep en vulnerabilidades conocidas y desconocidas, Google pretende mejorar sus capacidades de búsqueda de errores, convirtiéndola potencialmente en una herramienta vital para desarrolladores y equipos de seguridad en todo el mundo.
IA en ciberseguridad
La exitosa detección de vulnerabilidades SQLite de Big Sleep puede indicar un cambio de paradigma en la ciberseguridad, donde los agentes de IA identifican y abordan de forma autónoma los problemas de seguridad. Esta transición a medidas de seguridad automatizadas podría ofrecer una protección sin precedentes, cerrando la brecha entre el descubrimiento y la explotación de errores.
- Detección preventiva de errores: Las herramientas impulsadas por IA como Big Sleep representan un enfoque proactivo de la seguridad. Al identificar las vulnerabilidades antes del lanzamiento del software, estas herramientas pueden evitar ataques de día cero y reducir el riesgo para los usuarios finales.
- Seguridad rentable: La búsqueda de errores tradicional es costosa y requiere mucho tiempo. Las soluciones de IA podrían agilizar los procesos de seguridad, haciendo que la detección de vulnerabilidades sea más rápida, más escalable y potencialmente más rentable.
- Mejora continua: A medida que evolucionen las herramientas impulsadas por IA como Big Sleep, perfeccionarán su capacidad para comprender y analizar estructuras de código, lo que conducirá a una identificación de vulnerabilidades más completa en aplicaciones del mundo real.
Créditos de imagen: Kerem Gülen/Ideograma