Deepseek utilizará chips Huawei AI en lugar de Nvidia para capacitar a pequeños modelos de IA, ya que la compañía busca disminuir su dependencia de los procesadores NVIDIA. El cambio se produce cuando Deepseek está probando nuevos aceleradores de GPU de AI de varios fabricantes.
Según Deepseek, planea adoptar chips Huawei para sus modelos de IA más pequeños. Esta iniciativa tiene como objetivo reducir la dependencia de la empresa de NVIDIA. Deepseek está evaluando actualmente nuevos aceleradores de GPU de AI de Huawei, Baidu y Cambricon para modelos de entrenamiento más pequeños que su versión AI R2.
Deepseek tiene la intención de continuar utilizando procesadores NVIDIA para su modelo de lenguaje grande R2 AI (LLM), considerándoles una fuente confiable para sus productos actuales. La compañía estaba considerando previamente el procesador ASCEND para su modelo de razonamiento de IA de próxima generación, pero podría diferir ese plan.
Deepseek encontró desafíos con el próximo modelo R2 AI. A pesar del apoyo de ingeniería de Huawei, los problemas de desarrollo condujeron al aplazamiento del lanzamiento del modelo R2 AI. El debut del modelo R2 AI ahora se espera a finales de este año.
Deepseek depende de los conjuntos de chips de Nvidia para construir el modelo de razonamiento R2 AI más potente. Al mismo tiempo, utilizará procesadores Huawei Ascend para capacitar y refinar iteraciones más pequeñas del modelo R2. La compañía no ha especificado una fecha de debut para las plataformas de consumo que utilizan la tecnología LLM con control de chips Huawei AI.
Un portavoz de NVIDIA declaró: «La competencia ha llegado sin lugar a dudas. El mundo elegirá la mejor pila tecnológica para administrar las aplicaciones más populares y los modelos de código abierto. Para ganar la carrera de IA, la industria estadounidense debe obtener el apoyo de los desarrolladores de todas partes, incluida China».





