Google ha dado otro paso significativo en la carrera por mejorar la precisión y la fiabilidad de los modelos de IA con el introducción de DataGemma, un enfoque innovador que combina sus modelos de lenguaje grandes (LLM) Gemma y el proyecto Data Commons. El foco aquí está en una técnica llamada Generación aumentada por recuperación (RAG)un método que ha ido ganando terreno en las empresas, pero ahora, con DataGemma, Google pretende llevarlo a la corriente principal de la IA.
En esencia, RAG busca resolver uno de los mayores desafíos que enfrentan los LLM: el problema de las alucinaciones. En el mundo de la IA generativa, las alucinaciones se refieren a instancias en las que el modelo genera información que suena plausible pero que es objetivamente incorrecta. Este es un problema común en los sistemas de IA, especialmente cuando carecen de una base confiable en datos factuales. El objetivo de Google con DataGemma es «aprovechar el conocimiento de Data Commons para mejorar la factualidad y el razonamiento de los LLM», abordando este problema de frente.
¿Qué es RAG?
La generación aumentada por recuperación es un cambio radical porque no depende únicamente de modelos de IA entrenados previamente para generar respuestas. En cambio, recupera datos relevantes de una fuente externa antes de generar una respuesta. Este enfoque permite que la IA proporcione respuestas más precisas y contextualmente relevantes extrayendo datos del mundo real de repositorios. En el caso de DataGemma, la fuente de estos datos es Proyecto Data Commons de Googleun recurso disponible públicamente que agrega datos estadísticos de instituciones prestigiosas como las Naciones Unidas.
Esta medida de Google para integrar Data Commons con sus modelos de IA generativa representa la Primera implementación a gran escala basada en la nube de RAGSi bien muchas empresas han utilizado RAG para fundamentar sus modelos de IA en datos privados, el uso de un recurso de datos públicos como Data Commons lleva las cosas a un nivel completamente nuevo. Esto indica la intención de Google de utilizar datos verificables y de alta calidad para hacer que la IA sea más confiable y útil en una amplia gama de aplicaciones.

El enfoque doble de Google
Según Google, DataGemma adopta “dos enfoques distintos” para integrar la recuperación de datos con la salida LLM. El primer método se denomina Generación intercalada de recuperación (RIG)Con RIG, la IA obtiene datos estadísticos específicos para verificar las preguntas planteadas en la solicitud de consulta. Por ejemplo, si un usuario pregunta: «¿Ha aumentado el uso de energías renovables en el mundo?», el sistema puede extraer estadísticas actualizadas de Data Commons y citarlas directamente en su respuesta. Esto no solo mejora la precisión fáctica de la respuesta, sino que también proporciona a los usuarios fuentes concretas de información.
El segundo método se ajusta más al enfoque RAG tradicional. En este caso, el modelo recupera datos para generar respuestas más completas y detalladas, citando las fuentes de los datos para crear un panorama más completo. “DataGemma recupera información contextual relevante de Data Commons antes de que el modelo inicie la generación de respuestas”. Google afirma que esto garantiza que la IA tenga todos los datos necesarios a mano antes de comenzar a generar una respuesta, lo que reduce en gran medida la probabilidad de alucinaciones.
Una característica clave de DataGemma es el uso de Google Modelo Gemini 1.5que cuenta con una impresionante ventana de contexto de hasta 128.000 tokensEn términos de IA, la ventana de contexto se refiere a la cantidad de información que el modelo puede almacenar en la memoria mientras procesa una consulta. Cuanto más grande sea la ventana, más datos puede tener en cuenta el modelo al generar una respuesta. Gemini 1.5 puede incluso escalar hasta una asombrosa cantidad de datos. 1 millón de tokenslo que le permite extraer cantidades masivas de datos de Data Commons y utilizarlos para elaborar respuestas detalladas y matizadas.
Esta ventana de contexto extendida es fundamental porque permite a DataGemma “minimizar el riesgo de alucinaciones y mejorar la precisión de las respuestas”, Según Google, al almacenar información más relevante en la memoria, el modelo puede cotejar su propia salida con datos del mundo real, lo que garantiza que las respuestas que proporciona no solo sean relevantes, sino que también estén basadas en hechos.

Más allá de los LLM
Si bien la integración de técnicas RAG es emocionante por sí sola, DataGemma también representa un cambio más amplio en el panorama de la IAYa no se trata solo de grandes modelos de lenguaje que generan texto o responden preguntas en función de lo que han aprendido. El futuro de la IA reside en su capacidad para integrar con fuentes de datos en tiempo realgarantizando que sus resultados sean lo más precisos y actualizados posible.
Google no está solo en esta búsqueda. La semana pasada, Se presenta OpenAI es Proyecto “Fresa”que adopta un enfoque diferente para mejorar el razonamiento de la IA. Strawberry utiliza un método conocido como “cadena de pensamiento”donde la IA explica los pasos o factores que utiliza para llegar a una predicción o conclusión. Si bien es diferente de RAG, el objetivo es similar: hacer que la IA sea más transparente, confiable y útil al brindar información sobre el razonamiento detrás de sus respuestas.
¿Qué sigue para DataGemma?
Por ahora, DataGemma sigue siendo un trabajo en progreso. Google reconoce que se necesitan más pruebas y desarrollo antes de que el sistema pueda ponerse a disposición del público en general. Sin embargo, los primeros resultados son prometedores. Google afirma que tanto el método RIG como el RAG han mejorado la calidad de los resultados, con “Menos alucinaciones para casos de uso en investigación, toma de decisiones o simplemente para satisfacer la curiosidad”.
Está claro que Google, junto con otras empresas líderes en inteligencia artificial, está yendo más allá de las capacidades básicas de los grandes modelos de lenguaje. El futuro de la inteligencia artificial reside en su capacidad de integrarse con fuentes de datos externas, ya sean bases de datos públicas como Data Commons o datos corporativos de propiedad exclusiva. Al hacerlo, la inteligencia artificial puede ir más allá de sus limitaciones y convertirse en una herramienta más poderosa para la toma de decisiones, la investigación y la exploración.
Crédito de la imagen destacada: Google