Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

El modelo nGPT de NVIDIA reduce 20 veces el tiempo de entrenamiento de la IA

byKerem Gülen
21 octubre 2024
in Artificial Intelligence
Home Artificial Intelligence
Share on FacebookShare on Twitter

NVIDIA ha presentado un importante avance en el entrenamiento de modelos de IA con el lanzamiento del Transformador normalizado (nGPT). Esta nueva arquitectura, diseñada para mejorar el proceso de capacitación para modelos de lenguaje grandes (LLM), tiene el potencial de acelerar los tiempos de capacitación de 4 a 20 veces, manteniendo al mismo tiempo la estabilidad y precisión del modelo. El modelo nGPT agiliza el proceso de formación, utiliza menos recursos y ofrece una solución más eficiente para el desarrollo de la IA.

Lo que hace que nGPT sea diferente: el aprendizaje hiperesférico

En el centro de la eficiencia de nGPT hay un concepto llamado aprendizaje de representación hiperesférica. En los modelos de transformadores tradicionales, los datos a menudo se procesan sin un marco geométrico consistente. El nGPT de NVIDIA cambia esto al mapear todos los componentes clave (como incrustaciones, matrices de atención y estados ocultos) en la superficie de una hiperesfera. Esta configuración geométrica ayuda a garantizar que todas las capas del modelo permanezcan equilibradas durante el entrenamiento, lo que crea un proceso de aprendizaje más estable y eficiente.

Este enfoque reduce significativamente el número de pasos de entrenamiento. En lugar de aplicar la caída de peso directamente a los pesos del modelo como los modelos anteriores, nGPT se basa en parámetros de escala aprendidosque optimizan cómo se ajusta el modelo durante el entrenamiento. Es importante destacar que este método elimina la necesidad de otras técnicas de normalización como Norma de capa o RMSNormahaciendo que el proceso sea más sencillo y rápido.

El modelo nGPT de NVIDIA reduce 20 veces el tiempo de entrenamiento de la IA
El modelo nGPT de NVIDIA reduce 20 veces el tiempo de entrenamiento de la IA (Crédito de imagen)

Formación más rápida con menos recursos

Los resultados de la arquitectura de nGPT son claros. En las pruebas realizadas con el conjunto de datos OpenWebText, nGPT de NVIDIA superó consistentemente a los modelos GPT tradicionales en términos de velocidad y eficiencia. Con entradas de texto de hasta 4000 tokens, nGPT requirió muchas menos rondas de entrenamiento para lograr una pérdida de validación similar, lo que redujo drásticamente el tiempo que lleva entrenar estos modelos complejos.

Además, la estructura hiperesférica de nGPT proporciona una mejor incrustando separabilidad. Esto significa que el modelo puede distinguir más fácilmente entre diferentes entradas, lo que mejora la precisión durante las pruebas de IA estándar. La generalización mejorada del modelo también le permite desempeñarse mejor en tareas más allá de su entrenamiento inicial, acelerando la convergencia y manteniendo altos niveles de precisión.

El modelo nGPT de NVIDIA reduce 20 veces el tiempo de entrenamiento de la IA
El modelo nGPT de NVIDIA reduce 20 veces el tiempo de entrenamiento de la IA (Crédito de imagen)

Por qué esto es importante para el entrenamiento de IA

Una ventaja clave de nGPT es su capacidad para combinar ambos normalización y representación aprendizaje en un marco unificado. Este diseño simplifica la arquitectura del modelo, facilitando su escalado y adaptación a sistemas híbridos más complejos. Esto podría conducir potencialmente al desarrollo de sistemas de IA aún más potentes en el futuro, ya que el enfoque de nGPT podría integrarse en otros tipos de modelos y arquitecturas.


Crédito de la imagen destacada: Kerem Gülen/Ideograma

Tags: AIngptNvidiaPresentado

Related Posts

OpenAI impone filtros de seguridad a los adolescentes mediante la predicción conductual de la edad

OpenAI impone filtros de seguridad a los adolescentes mediante la predicción conductual de la edad

21 enero 2026
Google lanza exámenes de práctica SAT gratuitos en Gemini con Princeton Review

Google lanza exámenes de práctica SAT gratuitos en Gemini con Princeton Review

21 enero 2026
Samsung filtra y luego elimina la revisión de Bixby con búsqueda Perplexity

Samsung filtra y luego elimina la revisión de Bixby con búsqueda Perplexity

21 enero 2026
Altman rompe su postura anti-publicidad con "patrocinado" enlaces debajo de las respuestas de ChatGPT

Altman rompe su postura anti-publicidad con "patrocinado" enlaces debajo de las respuestas de ChatGPT

21 enero 2026
DeepSeek revela la arquitectura MODEL1 en la actualización de GitHub antes de la V4

DeepSeek revela la arquitectura MODEL1 en la actualización de GitHub antes de la V4

21 enero 2026
Adobe lanza Object Mask con tecnología de IA para Premiere Pro

Adobe lanza Object Mask con tecnología de IA para Premiere Pro

20 enero 2026

Recent Posts

  • JWST identifica SN Eos: la supernova más distante jamás confirmada espectroscópicamente
  • Netflix lanza votación interactiva en tiempo real para el estreno en vivo de Star Search
  • Snap paga millones para resolver una demanda por adicción a adolescentes
  • El CEO de Anthropic critica a EE. UU. y Nvidia por las ventas de chips de IA a China
  • Netflix planea rediseñar su aplicación móvil en 2026 para impulsar la participación diaria de los usuarios

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.