Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the fast-indexing-api domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/buwemyhm/public_html/wp-includes/functions.php on line 6121

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the health-check domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/buwemyhm/public_html/wp-includes/functions.php on line 6121
QWEN3 muestra que los modelos abiertos aún pueden rivalizar con gigantes cerrados - Dataconomy ES
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

QWEN3 muestra que los modelos abiertos aún pueden rivalizar con gigantes cerrados

byKerem Gülen
29 abril 2025
in Artificial Intelligence, News
Home Artificial Intelligence

Alibaba liberado Qwen3, una familia de modelos de IA que la compañía afirma coincidir y, a veces, supera a los mejores modelos de Google y OpenAI, el lunes. Los modelos varían en tamaño desde 0.6 mil millones de parámetros hasta 235 mil millones de parámetros y están disponibles para descargar bajo una licencia «abierta» desde la plataforma AI Dev Cara abrazada y Github.

Los modelos QWEN3 se describen como «híbridos» porque pueden tomarse el tiempo para «razonar» a través de problemas complejos o responder solicitudes más simples rápidamente. Esta capacidad de razonamiento permite que los modelos se revisen de manera efectiva, similar al modelo O3 de OpenAI, pero con mayor latencia. Según el equipo de Qwen, tienen «modos de pensamiento y sin pensamiento sin problemas, ofreciendo a los usuarios la flexibilidad de controlar el presupuesto de pensamiento».

Algunos modelos QWEN3 adoptan una mezcla de arquitectura de expertos (MOE), que puede ser más computacionalmente eficiente para responder consultas. MOE divide las tareas en subtareas y las delega a modelos «expertos» más pequeños y especializados. Los modelos admiten 119 idiomas y fueron entrenados en un conjunto de datos de casi 36 billones de tokens, incluidos libros de texto, pares de preguntas y respuestas, fragmentos de código y datos generados por IA.

QWEN3 muestra que los modelos abiertos aún pueden rivalizar con gigantes cerrados
Puntos de referencia compartidos por Alibaba

Alibaba Las afirmaciones de que las capacidades de Qwen3 han mejorado enormemente en comparación con su predecesor, QWEN2. El modelo QWEN3 más grande, QWEN-3-235B-A22B, funciona de manera competitiva en evaluaciones de referencia, superando a O3-Mini de OpenAI y Gemini 2.5 Pro de Google en CodeForces, una plataforma para concursos de programación. También supera a O3-Mini en la última versión de AIME, un punto de referencia matemático desafiante, y BFCL, una prueba para evaluar la capacidad de un modelo para razonar sobre los problemas.

QWEN3 muestra que los modelos abiertos aún pueden rivalizar con Giants_02 cerrados_02
Puntos de referencia compartidos por Alibaba

Si bien QWEN-3-235B-A22B no está disponible públicamente, el modelo público público más grande, QWEN3-32B, sigue siendo competitivo con varios modelos IA propietarios y abiertos. QWEN3-32B supera el modelo O1 de OpenAI en varias pruebas, incluido el referencia de codificación LivecodeBench. Alibaba dice que QWEN3 sobresale en las capacidades de llamado de herramientas, siguientes instrucciones y copia de formatos de datos específicos.

Tuhin Srivastava, cofundador y CEO de AI Cloud Host Baseten, señaló que Qwen3 es otro ejemplo de modelos abiertos que mantienen ritmo con sistemas de código cerrado como OpenAI. Agregó que modelos como Qwen3 probablemente se utilizarán a nivel nacional, a pesar de las restricciones de los Estados Unidos en las ventas de chips a China.

Qwen3 está disponible para descargar y a través de proveedores de nubes, incluidos los fuegos artificiales IA e hiperbólicos.


Crédito de imagen destacado

Tags: Alibabaqwen

Related Posts

Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección

Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección

15 mayo 2025
Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad

Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad

15 mayo 2025
La IA de YouTube ahora sabe cuándo estás a punto de comprar

La IA de YouTube ahora sabe cuándo estás a punto de comprar

15 mayo 2025
El CEO de Soundcloud admite que los términos de IA no eran lo suficientemente claros, emiten nuevos compromisos

El CEO de Soundcloud admite que los términos de IA no eran lo suficientemente claros, emiten nuevos compromisos

15 mayo 2025
¿Listo para un chatgpt que realmente te conozca?

¿Listo para un chatgpt que realmente te conozca?

14 mayo 2025
Lightricks presenta el modelo de video 13B LTX para la generación de videos HQ AI

Lightricks presenta el modelo de video 13B LTX para la generación de videos HQ AI

14 mayo 2025

Recent Posts

  • El impacto de las telas inteligentes en el rendimiento de la ropa táctica
  • Databricks apuesta grande en Postgres sin servidor con su adquisición de neón de $ 1 mil millones
  • Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección
  • Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad
  • Trump obliga a Apple a repensar su estrategia de iPhone de la India

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.