Google lanzó una versión reinventada de su agente de investigación, Gemini Deep Research, el jueves, coincidiendo con el anuncio de OpenAI de GPT-5.2. La actualización se basa en el modelo básico de Gemini 3 Pro para mejorar la precisión de los hechos y permitir la integración de desarrolladores para aplicaciones avanzadas de IA. El nuevo agente Gemini Deep Research conserva su capacidad de generar informes de investigación al tiempo que introduce funcionalidades ampliadas. Los desarrolladores ahora pueden incorporar las capacidades de investigación del modelo SATA de Google directamente en sus propias aplicaciones. Esta integración se produce a través de la API de Interacciones recientemente lanzada, que proporciona a los desarrolladores un mayor control sobre las operaciones de IA a medida que los sistemas agentes se vuelven más frecuentes en el desarrollo de software. En esencia, el agente procesa y sintetiza grandes cantidades de información de manera eficiente. Gestiona grandes volcados de contexto dentro de las indicaciones, lo que le permite manejar conjuntos de datos complejos sin perder coherencia. Los clientes ya emplean la herramienta para aplicaciones prácticas, incluidos procesos de diligencia debida en negocios e investigación de seguridad de toxicidad de medicamentos en productos farmacéuticos, lo que demuestra su utilidad en escenarios del mundo real que requieren un manejo preciso de la información. Google tiene la intención de incorporar el agente de investigación profunda en varios de sus servicios existentes para ampliar la accesibilidad. Estos incluyen Google Search para mejorar la resolución de consultas, Google Finance para análisis detallados del mercado, la aplicación Gemini para interacciones de usuarios y NotebookLM para tomar notas y organizar conocimientos. Estas integraciones tienen como objetivo aprovechar las fortalezas del agente en todo el ecosistema de Google. El rendimiento del agente depende en gran medida del diseño del modelo Gemini 3 Pro como el modelo base más factual de Google. Este modelo se entrena específicamente para minimizar las alucinaciones, casos en los que modelos de lenguaje grandes generan información inexacta. Las alucinaciones plantean un riesgo significativo en tareas de razonamiento profundo y de larga duración, donde los agentes toman numerosas decisiones autónomas durante períodos prolongados, como minutos u horas. Una sola elección alucinada en estas secuencias puede comprometer la validez de toda la producción, lo que hace que las tasas de alucinaciones reducidas sean esenciales para una operación confiable. Para fundamentar sus avances, Google desarrolló un nuevo punto de referencia de evaluación llamado DeepSearchQA. Este punto de referencia evalúa a los agentes de IA en tareas complejas de búsqueda de información de varios pasos que imitan desafíos de investigación reales. Google ha puesto a disposición DeepSearchQA como un recurso de código abierto, lo que permite a la comunidad de IA en general probar y comparar las capacidades de los agentes utilizando métricas estandarizadas.





