En el evento Advancing AI de AMD, la directora ejecutiva Lisa Su subió al escenario para anunciar una serie de innovaciones dirigidas a los clientes de AI. Desde los últimos procesadores EPYC de quinta generación hasta los aceleradores Instinct de próxima generación, AMD está duplicando su apuesta por el hardware de alto rendimiento para cargas de trabajo de IA. Estas nuevas tecnologías prometen aumentar la potencia de procesamiento de la IA y optimizar las cargas de trabajo para las empresas y la computación en la nube.
AMD avanza la IA 2024 de un vistazo
Analicemos los anuncios clave del Avanzando la IA evento.
Procesadores EPYC de quinta generación: liberando el poder de Zen 5
Al inaugurar el evento, Lisa Su introducido El portafolio EPYC de quinta generación de AMD, construido alrededor del nuevo núcleo Zen 5. «Diseñamos Zen 5 para que sea el mejor en cargas de trabajo de servidores», explicó Su, destacando su aumento del 177 % en IPC con respecto a Zen 4. El nuevo procesador cuenta con hasta 192 núcleos y 384 subprocesos, superando los límites del rendimiento del servidor.
Uno de los puntos destacados fue la flexibilidad que ofrecen estos chips. Su señaló: «Lo pensamos desde el punto de vista arquitectónico: ¿cómo construimos la cartera de CPU más amplia de la industria que cubra cargas de trabajo tanto empresariales como en la nube?» Este equilibrio entre rendimiento y versatilidad tiene como objetivo manejar todo, desde nodos principales de IA hasta software empresarial exigente.
Chips AMD Turion: escalamiento para la nube y la empresa
El evento también vio la presentación de los nuevos chips Turion de AMD, específicamente optimizados para diferentes tipos de cargas de trabajo. Su reveló dos versiones clave: una versión de 128 núcleos diseñada para aplicaciones empresariales de ampliación y una versión de 192 núcleos destinada a la computación en nube de ampliación. Ambos están diseñados para ofrecer el máximo rendimiento por núcleo, algo crucial para cargas de trabajo empresariales donde el software suele tener licencias por núcleo.
«La versión de 192 núcleos está realmente optimizada para la nube», explicó Su, enfatizando que estos chips brindarán a los proveedores de la nube la densidad informática que necesitan. AMD también comparó sus nuevos chips EPYC con los de la competencia, mostrando que la quinta generación EPYC ofrece hasta 2,7 veces más rendimiento que las principales alternativas.
AMD Instinct MI325X: una GPU centrada en la IA
En cuanto a la aceleración de la IA, Su anunciado AMD Instinct MI325X, la última GPU de la compañía centrada en IA. «Lideramos la industria con 256 gigabytes de memoria HBM3E ultrarrápida y seis terabytes por segundo de ancho de banda», dijo Su. El MI325X está diseñado para manejar tareas de IA exigentes, como la IA generativa, y ofrece un rendimiento de inferencia entre un 20 % y un 40 % mejor y mejoras de latencia con respecto a los modelos anteriores.
Además de las mejoras en la memoria y el rendimiento, AMD diseñó el MI325X teniendo en cuenta la facilidad de implementación. «Mantuvimos una infraestructura común», mencionó Su, lo que permitió una integración perfecta con los sistemas existentes. Esto facilitará que los clientes de IA adopten la tecnología sin necesidad de revisar sus plataformas.
Serie AMD Instinct MI350
El evento también proporcionó un vistazo al futuro de AMD con la serie MI350. Programado para su lanzamiento en la segunda mitad de 2025, el MI350 presenta la nueva arquitectura CDNA 4 y ofrece la asombrosa cantidad de 288 GB de memoria HBM3E. Según Su, CDNA 4 traerá un «aumento generacional 35 veces mayor en el rendimiento de la IA en comparación con CDNA 3».
Esta nueva arquitectura está diseñada para manejar modelos de IA más grandes con mayor eficiencia, y su compatibilidad con modelos Instinct anteriores garantiza una transición sin problemas para los clientes.
ROCm 6.2: Mejor rendimiento para cargas de trabajo de IA
El compromiso de AMD de optimizar el rendimiento de la IA se extiende más allá del hardware, como lo anuncia Su ROCm 6.2la última actualización de la pila de software de IA de AMD. La nueva versión ofrece un rendimiento 2,4 veces mayor para cargas de trabajo clave de inferencia de IA y un rendimiento 1,8 veces mejor para tareas de entrenamiento de IA. Estas mejoras provienen de avances en algoritmos, optimizaciones de gráficos y bibliotecas informáticas mejoradas.
«Nuestra última versión se centra en maximizar el rendimiento en modelos públicos y propietarios», explicó Su, señalando los esfuerzos de AMD para seguir siendo competitivos también en el espacio del software de IA.
Créditos de imagen: Kerem Gülen/Ideograma