El laboratorio chino de inteligencia artificial DeepSeek ha anunciado el lanzamiento de su modelo DeepSeek-R1-Lite-Preview, que, según afirma, rivaliza con el modelo o1 de OpenAI. El nuevo modelo ofrece una característica única: transparencia en su proceso de razonamiento, lo que permite a los usuarios ver sus métodos de resolución de problemas paso a paso. Este anuncio se produce dos meses después de que OpenAI lanzara su o1-vista previa modelo, destacando una competencia creciente en el espacio de razonamiento de la IA.
DeepSeek lanza un modelo de razonamiento para rivalizar con OpenAI
Se puede acceder a DeepSeek-R1-Lite-Preview a través de un chatbot web, Chat de búsqueda profundadonde los usuarios pueden interactuar con la modelo, limitado a 50 mensajes por día. Si bien aún no se han publicado puntos de referencia detallados y una tarjeta modelo, las primeras evaluaciones indican que el modelo de razonamiento muestra un rendimiento comparable a los puntos de referencia de OpenAI en tareas AIME y MATH. DeepSeek afirma que logra una precisión de última generación del 91,6% en el punto de referencia MATH.
La introducción de DeepSeek-R1 se produce cuando las leyes de escalamiento tradicionales en IA, que sugieren que el aumento de los datos y la potencia computacional mejorarán el rendimiento, comienzan a mostrar rendimientos decrecientes. En respuesta, las empresas están buscando nuevos enfoques, como los modelos de razonamiento subyacentes como DeepSeek-R1. A diferencia de los modelos tradicionales, los modelos de razonamiento amplían su procesamiento computacional durante la inferencia para mejorar las capacidades de toma de decisiones.
A pesar de sus características prometedoras, el nuevo modelo también cumple con estrictos protocolos de censura comunes en la tecnología de inteligencia artificial china. Las observaciones confirmaron que DeepSeek-R1 evita temas políticos delicados, como consultas sobre Xi Jinping o Taiwán. Los usuarios han informado de intentos exitosos de eludir estas restricciones, lo que permite que el modelo proporcione contenido sin filtrar en ciertos escenarios. Este aspecto plantea dudas constantes sobre el equilibrio entre la funcionalidad y el cumplimiento normativo de los modelos de IA desarrollados en regiones con una estricta supervisión gubernamental.
DeepSeek afirma que su modelo DeepSeek-R1, o más específicamente, DeepSeek-R1-Lite-Preview, coincide con el modelo o1-preview de OpenAI en dos importantes puntos de referencia de IA, AIME y MATH. AIME evalúa el rendimiento de un modelo utilizando otros modelos de IA, mientras que MATH prueba la resolución de problemas con una colección de problemas planteados. Sin embargo, el modelo tiene sus defectos. Algunos usuarios en X señaló que DeepSeek-R1, al igual que o1, enfrenta desafíos con el tres en raya y otras tareas basadas en la lógica.
De cara al futuro, DeepSeek planea lanzar versiones de código abierto de sus modelos R1 y ampliar el acceso a través de API, continuando con su compromiso con la comunidad de IA de código abierto. La empresa cuenta con el respaldo de High-Flyer Capital Management, que sigue una estrategia de integración de la IA en las decisiones comerciales. Las operaciones de High-Flyer incluyen una inversión sustancial en infraestructura de hardware, con grupos de GPU Nvidia A100 para el entrenamiento de modelos.
Crédito de la imagen destacada: búsqueda profunda