Encontró una manera de disparar la competitividad de China frente a los Estados Unidos. – Desde dentro
Hace dos días le dijimos algo muy interesante: los tiempos de valores medios estatales chinos habían demostrado que Huawei

Hace dos días le dijimos algo muy interesante: los tiempos de valores medios estatales chinos habían demostrado que Huawei quería presentar un progreso tecnológico que se realizó Reducir la dependencia de China De chips de memoria HBM (Memoria de alto ancho de banda) del extranjero. Según esta fuente Huawei anunciaría oficialmente su hito tecnológico unas horas más tarde, durante la celebración en Shanghai (China) del Foro de Aplicación y el desarrollo del pensamiento financiero en 2025.
Huawei ha cumplido lo que fue prometido, aunque no como habíamos planeado. Antes de entrar, definitivamente es importante que recordemos que los fabricantes de chips chinos no producen soluciones que puedan competir con los recuerdos más avanzados que las compañías surcoreanas Samsung y SK Hynix o la tecnología American Micron. Las GPU para IA trabajan junto a chips de almacenamiento HBM. De hecho, su actuación está en gran medida condicionada por estos recuerdos.
Como editor de SemianálisisEl ancho de banda total de los chips de memoria HBM3, que viven con algunas de las GPU para las NVIDIA o AMD más avanzadas, cruza 819 GB/s, mientras que los recuerdos de DDR5 y GDDR6X alcanzan muchos 70.4 GB/SY 96 GB/s modestos. Los recuerdos de HBM3E y el futuro HBM4 son aún mejores. Los fabricantes chinos de este tipo de chips no producen este tipo de recuerdos, pero parece que Huawei cambiará este escenario profundamente.
Un algoritmo que está expresamente diseñado para acelerar la conclusión en la IA
La filtración, que ocurrió apenas 48 horas, indicó que el Huawei era probablemente una tecnología de envasado avant -Gart, que podría mantenerse al día con el empaque utilizado por SK Hynix, Samsung o Micron con sus recuerdos HBM3 y 3E. Y es que la producción de estos circuitos integrados es compleja porque tienen que apilar varios chips DRAM e implementar una interfaz entre la XPU (Unidad de procesamiento extendida) o unidad de procesamiento extendida y chips HBM extraordinariamente densos. Como muestra un botón: en una pila HBM3E, la memoria XPU y HBM se unen a través de más de 1,000 controladores.
Según Huawei, el algoritmo UCM se puede acelerar drásticamente en los grandes modelos de IA
Finalmente, sin embargo, Huawei introdujo otra tecnología: un algoritmo avanzado llamado UCM (Administrador de caché uniformes) que es capaz después de esta empresa Acelerar drásticamente la inferencia En los grandes modelos de inteligencia artificial (IA). Una nota relevante: en general, la inferencia es el proceso de computadora realizado por los modelos de voz para generar las respuestas que cumplan con los requisitos que recibe.
Para lograr su propósito, el algoritmo UCM muestra una estrategia muy ingeniosa: decida qué tipo de memoria es necesaria para almacenar cualquier dato que los requisitos de latencia supongan como un indicador fundamental. En la práctica, este algoritmo se comporta como un caché gigantesco, lo que garantiza que cada datos en la memoria correcta, incluido HBM3, con el propósito de minimizar la latencia durante la inferencia. Si se usa muy a menudo, se almacena en una memoria muy rápida como HBM3. Según HuaweiEsta tecnología puede reducir la latencia de la inferencia en un 90%. Curiosamente, esta compañía planea hacer el algoritmo abierto de la fuente UCM en septiembre.
Más información | SCMP
En | Nvidia tiene que lidiar con la desconfianza absoluta de varios legisladores estadounidenses. Su plan en China está en peligro
En | Estados Unidos quiere terminar con los chips para los chinos vendidos en el extranjero. Y China sabe cómo defenderse