CoreWeave развертывает суперсерверы Blackwell от Nvidia на базе решений Dell

CoreWeave, ведущий облачный провайдер ИИ, установил в своих дата-центрах серверные стойки Dell с новейшими чипами Nvidia Blackwell (GB200 NVL72), предоставляя технологию высокой плотности вычислений для обучения и запуска крупных языковых моделей.

CoreWeave применяет жидкостно-охлаждаемые стойки Dell IR7000, созданные специально для компании, основанные на серверах PowerEdge XE9712 с 72 видеокартами и 36 процессорами архитектуры Grace Blackwell. Сети NVLink и Quantum-2 InfiniBand объединяют блоки GPU в единое высокопроизводительное решение, производительность которого ускоряет вывод языковых моделей в реальном времени на 30 раз по сравнению с предыдущим поколением чипов.

Интеграция выполнена за короткий срок: меньше шести недель прошло с момента заказа до установки. CoreWeave указывает, что такое решение упрощает масштабирование инфраструктуры под задачи генеративного ИИ и ускоряет запуск проектов от OpenAI, Mistral, xAI и других.

Новые серверы Dell обеспечивают производительность до 1,4 экзафлопс на одну стойку и вмещают до 13,5 ТБ памяти GPU в одной стойке. Жидкостное охлаждение снижает потребление энергии и упрощает установку благодаря компактности форм-фактора 21 дюйм.

CoreWeave, позиционирующий себя как «AI-гиперскейлер», сфокусированный исключительно на GPU-инфраструктуре, активно расширяет свое присутствие. К концу года ожидается 20 дата-центров, включая новые площадки в Европе. Недавно компания провела IPO и привлекла значимые инвестиции от Nvidia, Microsoft, Cisco и Pure Storage.

Для Dell сделка имеет стратегическое значение — она укрепляет позицию компании на рынке AI-инфраструктуры. Компания прогнозирует, что её сервера, ориентированные на AI, принесут $15 млрд дохода в этом году. Поставки чипов Blackwell компанией CoreWeave отражены в финансовых отчетах Nvidia.

Сотрудничество пересматривает подход к инфраструктуре искусственного интеллекта: крупные языковые модели можно запускать в облаке с большой концентрацией видеокарт при сокращении расходов энергии и времени развертывания. Это значительный шаг в сторону специализированных облаков для AI, которые предлагают альтернативу компаниям вроде AWS и Google Cloud.