Huawei разработала технологию для уменьшения зависимости от памяти HBM

На Форуме по внедрению и разработке ИИ-аналитики в финансовом секторе, запланированном на 12 августа 2025 года, Huawei продемонстрирует значительный прогресс в сфере искусственного интеллекта.

Согласно сообщениям китайских СМИ, разработанная технология позволит снизить потребность китайских ИИ-систем в памяти с высокой пропускной способностью (HBM), что, в свою очередь, повысит производительность при работе с большими моделями и поддержит развитие ключевых компонентов инфраструктуры искусственного интеллекта в Китае.

HBM — это современная технология DRAM, основанная на трехмерной компоновке, которая обеспечивает исключительно высокую пропускную способность, минимальные задержки и повышенную энергоэффективность. Благодаря HBM графические процессоры могут эффективно взаимодействовать с данными, избегая ограничений производительности, характерных для традиционной памяти DDR, при работе с масштабными ИИ-моделями, содержащими сотни миллиардов параметров. В настоящее время HBM практически полностью стандартизирована для задач обучения ИИ и находит всё более широкое применение в процессе развертывания моделей.

Несмотря на ограничения производства и экспортные барьеры, введенные США, китайские разработчики ищут альтернативные решения. В частности, Huawei изучает технологии корпусирования чиплетов и оптимизирует модели, уменьшая количество параметров, чтобы поддерживать высокую производительность при одновременном снижении зависимости от HBM.