Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Por qué el acuerdo con Groq de Nvidia es tan clave para el futuro de la IA

byEmre Çıtak
30 diciembre 2025
in Industry
Home Industry
Share on FacebookShare on Twitter

Los fabricantes de chips Nvidia y Groq entró La semana pasada firmó un acuerdo de licencia de tecnología no exclusiva para acelerar y reducir el costo de ejecutar grandes modelos de lenguaje previamente entrenados utilizando los chips de unidad de procesamiento de lenguaje de Groq. Los chips de la unidad de procesamiento de lenguaje de Groq impulsan consultas de chatbot en tiempo real durante la etapa de inferencia de las operaciones de IA, distintas del proceso de entrenamiento del modelo. Estos chips permiten que los modelos de IA generen respuestas rápidamente en aplicaciones como los chatbots. Los chips de Nvidia actualmente manejan gran parte de la fase de entrenamiento de IA en toda la industria. La inferencia representa un cuello de botella que Nvidia no controla por completo. Los chips de Groq se dirigen específicamente a esta etapa de inferencia, donde los modelos de IA aplican el conocimiento adquirido durante el entrenamiento para producir resultados sobre nuevos datos. Groq diseña sus chips de inferencia para trasladar los modelos de IA de la experimentación en laboratorio al despliegue práctico. La inferencia ocurre después del entrenamiento, cuando los modelos procesan entradas invisibles para generar resultados en escenarios del mundo real. Los inversores dirigen fondos hacia nuevas empresas de inferencia para conectar la investigación de IA con aplicaciones cotidianas a gran escala. El periodista de Axios, Chris Metinko, cubrió esta tendencia de inversión a principios de este año. Las capacidades de inferencia mejoradas permiten a las empresas llevar a cabo proyectos empresariales adicionales de IA a mayor escala. Estas iniciativas aumentan la demanda de procesos de formación, lo que a su vez eleva la necesidad de los chips de formación de Nvidia. Los modelos de IA funcionan a través de dos fases: entrenamiento e inferencia. Durante el entrenamiento, los modelos procesan extensos conjuntos de datos que incluyen texto, imágenes y videos para construir representaciones internas del conocimiento. En la fase de inferencia, los modelos identifican patrones dentro de datos nunca antes vistos y producen respuestas a indicaciones específicas basadas en esos patrones. Este proceso se asemeja a un estudiante que estudia el material para un examen y luego aplica ese conocimiento durante la prueba. Groq originado en 2016 bajo el liderazgo fundador de Jonathan Ross. La compañía no tiene ninguna relación con el chatbot xAI de Elon Musk llamado Grok. Jonathan Ross, el presidente de Groq, Sunny Madra, y otros empleados seleccionados planean unirse a Nvidia, como se indica en Sitio web de Groq.. Groq tiene la intención de mantener operaciones independientes después de estas transiciones. El acuerdo constituye un “acuerdo de licencia de tecnología de inferencia no exclusivo”. Este acuerdo se asemeja a una adquisición o adquisición. Stacy Rasgon describió la estructura en una nota a los clientes como manteniendo la ficción de la competencia, según CNBC. Las empresas emplean este tipo de estructuras de acuerdos para navegar las revisiones antimonopolio y al mismo tiempo conseguir personal especializado en inteligencia artificial.

  • Ejemplo de Microsoft: Reclutó a Mustafa Suleyman, cofundador de DeepMind.
  • Ejemplo de Google: Se volvió a contratar a Noam Shazeer, coinventor de la arquitectura Transformer fundamental para los modelos GPT.

Jonathan Ross, que ahora se muda a Nvidia, desarrolló anteriormente la Unidad de Procesamiento Tensor de Google, conocida como TPU. Los costos de implementación determinan hasta qué punto las empresas utilizan modelos desarrollados a través de esfuerzos de capacitación previos.


Crédito de imagen destacada

Tags: groqNvidia

Related Posts

Meta compra la empresa de inteligencia artificial de rápido crecimiento Manus en un acuerdo de 2 mil millones de dólares

Meta compra la empresa de inteligencia artificial de rápido crecimiento Manus en un acuerdo de 2 mil millones de dólares

30 diciembre 2025
Los altos costos de DDR5 empujan a ASUS a aumentar la producción de placas DDR4

Los altos costos de DDR5 empujan a ASUS a aumentar la producción de placas DDR4

30 diciembre 2025
Cliente de Tesla busca un nuevo juicio tras restricciones de gasto

Cliente de Tesla busca un nuevo juicio tras restricciones de gasto

30 diciembre 2025
Xbox y PlayStation pueden retrasar el lanzamiento de 2028 a medida que se disparan los costos de los componentes

Xbox y PlayStation pueden retrasar el lanzamiento de 2028 a medida que se disparan los costos de los componentes

30 diciembre 2025
SoftBank adquiere DigitalBridge por 4.000 millones de dólares en efectivo

SoftBank adquiere DigitalBridge por 4.000 millones de dólares en efectivo

30 diciembre 2025
Samsung y SK Hynix obtienen la aprobación estadounidense para fábricas en China

Samsung y SK Hynix obtienen la aprobación estadounidense para fábricas en China

30 diciembre 2025

Recent Posts

  • WhatsApp lanza paquete de stickers 2026 y fuegos artificiales de videollamadas
  • El nuevo buque insignia de Xiaomi con eSIM entrará en producción en masa el próximo año
  • Meta compra la empresa de inteligencia artificial de rápido crecimiento Manus en un acuerdo de 2 mil millones de dólares
  • Gallery TV se une a la línea de estilo de vida de LG con un servicio de arte exclusivo
  • Por qué el acuerdo con Groq de Nvidia es tan clave para el futuro de la IA

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.