На конференции Nvidia GTC 2025 компании Micron и SK Hynix представили SOCAMM — новый вид модулей памяти для систем Nvidia. Решение, получившее название Small Outline Compression Attached Memory Module, повысит производительность и энергоэффективность AI-серверов на платформе Grace Blackwell. Технология основана на стандарте LPDDR5X и отличается пониженным энергопотреблением, компактностью и высокой пропускной способностью.

В Micron сообщили о готовности к массовому производству модулей SOCAMM объёмом 128 ГБ. По сравнению с традиционными RDIMM и MRDIMM новинка обеспечивает более чем дву с половинойкратный прирост пропускной способности при трёхкратном сокращении энергозатрат. Модуль размером 14×90 мм также оптимизирует компоновку серверов и улучшает управление температурным режимом.
Радж Нарасимхан, старший вице-президент Micron, сказал, что искусственный интеллект меняет основы вычислений, а память является важным элементом в этом процессе. По его словам, разработка SOCAMM ускорит обучение нейросетей и их работу в реальном времени.
SK Hynix представил свои энергоэффективные модули SOCAMM, однако подробности о характеристиках не раскрыты. Производство начнется по мере развития рынка, а решение рассматривается как фундамент для будущих систем искусственного интеллекта.
SOCAMM несовместим с системами AMD и Intel, так как разработан специально для архитектуры Nvidia. Это указывает на стремление компании к созданию замкнутой экосистемы для AI-решений. Предполагается, что по мере роста спроса на инфраструктуру для AI SOCAMM станет одним из стандартов в сегменте высокопроизводительных серверов.