Как выбрать 5 Дек 2025
.15 мин.
Как выбрать 5 Дек 2025
.15 мин.
Серверы NVIDIA DGX — эталонные системы для обучения и инференса больших моделей. Они создавались как готовое решение «из коробки» для корпоративных команд, которым нужны предсказуемая производительность, масштабирование без ручной настройки и полная поддержка программного стека NVIDIA AI.
DGX H100 и DGX H200 относятся к одному поколению архитектуры Hopper, но различаются ключевыми характеристиками памяти и энергоэффективности. H200 не заменяет H100 — это следующая ступень в эволюции, ориентированная на задачи, где ограничивающим фактором становится пропускная способность и объём GPU-памяти.
DGX H100 — базовая система линейки Hopper, появившаяся в 2023 году. Сервер построен на восьми графических процессорах NVIDIA H100 SXM, объединённых через четвёртое поколение NVSwitch. Каждый GPU имеет 80 ГБ HBM3 памяти с пропускной способностью около 3,3 ТБ/с. Общий объём GPU-памяти — 640 ГБ.
Система использует два процессора Intel Xeon Platinum 8480C (по 56 ядер каждый), 2 ТБ оперативной памяти DDR5 и хранилище из NVMe-накопителей суммарной ёмкостью более 30 ТБ. Встроенные сетевые интерфейсы — восемь портов 400 Gb/s NVIDIA ConnectX-7 для межсерверных соединений и два dual-port адаптера для LAN и Storage-сетей.
AI-производительность — до 32 PFLOPS FP8 на систему. Энергопотребление — около 10,2 кВт. DGX H100 ориентирован на команды, которым нужна проверенная конфигурация для обучения и инференса моделей до десятков миллиардов параметров и максимальная совместимость с текущими фреймворками PyTorch и TensorFlow.
Особенности DGX H100:
DGX H200 — обновлённая версия на тех же восьми GPU, но с использованием HBM3e памяти. Объём GPU-памяти увеличен до 141 ГБ на каждый модуль, а пропускная способность возросла до 4,8 ТБ/с. Суммарно в системе 1 128 ГБ высокоскоростной памяти — это на 76 % больше, чем у DGX H100.
Остальная конфигурация идентична: те же процессоры, память, сеть и интерконнект NVSwitch. Системная мощность — 10,2 кВт в стандартной версии и до 14,3 кВт в модификации CTS (Custom Thermal Solution) для максимальной нагрузки.
Реальный прирост производительности зависит от типа задач: при обработке моделей Llama 2 70B скорость инференса возрастает до 1,9×, а на GPT-3 175B — примерно на 1,6×. Главное преимущество DGX H200 — устранение узких мест в доступе к памяти и возможность работать с моделями, не умещающимися в HBM H100.
Ключевые особенности DGX H200:
DGX H100 и DGX H200 построены на одной базовой платформе NVIDIA Hopper, но различаются в ключевом элементе — типе и характеристиках GPU-памяти. В остальном их архитектура совпадает: те же CPU, NVSwitch-интерконнект, сетевые адаптеры и конструкция шасси. Разница в том, как быстро и сколько данных каждая система может обработать за единицу времени.

В DGX H100 установлено восемь GPU H100 SXM, каждая карта содержит 80 ГБ памяти HBM3 с пропускной способностью около 3,3 ТБ/с. В DGX H200 те же чипы Hopper, но с памятью HBM3e объёмом 141 ГБ и пропускной способностью 4,8 ТБ/с.
Архитектура GPU осталась прежней — 132 потоковых мультипроцессора (SM) и тензорные ядра четвёртого поколения, однако увеличенная полоса пропускания и ёмкость памяти позволяют H200 эффективнее работать с крупными моделями и большими батчами.
Фактически DGX H200 устраняет ограничение на размер модели, которое в H100 часто требовало распределённого обучения или сложного шардинга данных. Теперь в пределах одной системы можно размещать большие языковые модели с контекстом 128k и выше без фрагментации по GPU.
Обе системы используют два процессора Intel Xeon Platinum 8480C (по 56 ядер, архитектура Sapphire Rapids) и 2 ТБ оперативной памяти DDR5. Процессоры выполняют роль координатора вычислений и управления вводом-выводом, а не основной вычислительной нагрузки. Разницы по CPU-подсистеме между H100 и H200 нет.
Главный элемент масштабируемости — NVSwitch четвёртого поколения. Он обеспечивает прямую связь между всеми восемью GPU с совокупной пропускной способностью до 900 ГБ/с на каждое соединение.
NVSwitch в H100 и H200 одинаков: четыре коммутатора внутри шасси связывают GPU в полностью связную топологию. Это устраняет необходимость в PCIe-коммуникациях и позволяет работать всем GPU как единому ресурсу памяти и вычислений.
В обеих моделях установлены восемь NVMe-дисков по 3,84 ТБ (в RAID0) для данных и два по 1,92 ТБ (в RAID1) под операционную систему.
Для сетевого взаимодействия используются адаптеры NVIDIA ConnectX-7: восемь портов по 400 Gb/s для кластерных соединений и два двухпортовых адаптера для LAN и хранилищ. Это обеспечивает прямое подключение DGX-систем к высокопроизводительным сетям InfiniBand или Ethernet без дополнительных узлов.
Шасси DGX — 8U высотой, в нём установлено шесть блоков питания по 3,3 кВт (четыре активных, два резервных). Максимальная потребляемая мощность — 10,2 кВт.
Для DGX H200 предусмотрена версия CTS (Custom Thermal Solution) с увеличенным лимитом мощности до 14,3 кВт и усиленным контуром охлаждения. Это актуально для дата-центров с жидкостным или гибридным охлаждением, где требуется постоянная работа под пиковыми нагрузками.
На уровне паспортных характеристик DGX H100 и DGX H200 обеспечивают одинаковую пик-производительность — до 32 PFLOPS в формате FP8 на систему. Оба решения используют GPU-архитектуру Hopper с тензорными ядрами четвёртого поколения и поддержкой FP8, FP16, TF32, BF16 и FP64. Однако разница в типе памяти делает H200 заметно быстрее на реальных рабочих нагрузках, особенно в задачах инференса и обучения больших языковых моделей.
Каждый GPU H100/H200 (SXM) развивает около 4 PFLOPS FP8. Восьмиграфический кластер DGX обеспечивает совокупно до 32 PFLOPS. При вычислениях в FP16 — около 16 PFLOPS, а в FP32 — примерно 8 PFLOPS.
Тесты HPC-нагрузок (Linpack, HPCG) показывают, что оба сервера достигают схожих значений плотности вычислений на ватт, что подтверждает одинаковый тепловой пакет и эффективность архитектуры Hopper.
По данным NVIDIA, DGX H200 обеспечивает до 1,9-кратного ускорения на инференсе Llama 2 70B и до 1,6× на GPT-3 175B по сравнению с H100 при идентичной конфигурации. Рост связан не с дополнительными вычислительными блоками, а с устранением ограничений по памяти: 141 ГБ HBM3e на GPU позволяют держать полный контекст модели и больше данных в быстрой памяти, минимизируя обращения к CPU и NVMe.
При обучении больших моделей, где батчи масштабируются пропорционально памяти, H200 также показывает преимущество — в среднем 1,3–1,5× в throughput на задачу. На меньших моделях (до 20 B параметров) разница не превышает 10–15 %.
Для кодов с высокой локальностью данных (CFD, FEM, климатическое моделирование) обе системы демонстрируют близкие результаты. Но при работе с памятьёмкими симуляциями и большими матрицами H200 стабильно удерживает более высокий коэффициент загрузки GPU. Это позволяет сократить время расчётов без увеличения энергопотребления.
DGX H100:
DGX H200:
Несмотря на рост производительности, обе системы сохраняют сопоставимый тепловой профиль. Максимальная потребляемая мощность DGX H100 и DGX H200 в стандартной конфигурации составляет около 10,2 кВт. Это значение включает питание GPU, CPU, NVSwitch, памяти и системы охлаждения.
DGX H200 доступен также в версии CTS (Custom Thermal Solution), рассчитанной на мощность до 14,3 кВт. Эта модификация используется в центрах обработки данных с жидкостным или гибридным охлаждением и обеспечивает стабильную работу под постоянной пиковой нагрузкой.
С точки зрения эффективности на ватт оба сервера идентичны в теории, но H200 показывает лучшую реальную отдачу. За счёт увеличенной пропускной способности памяти снижается количество обращений к системной RAM и I/O, поэтому вычислительные блоки тратят меньше времени на ожидание данных. Это улучшает производительность без роста энергопотребления.
В задачах LLM-инференса и крупных HPC-моделей H200 демонстрирует прирост энергоэффективности примерно на 30–40 % по сравнению с H100, если измерять в параметрах «токенов в секунду на ватт» или «итераций обучения на ватт». При этом тепловыделение распределено равномернее, что снижает требования к охлаждению на уровне стойки.
Итог по энергоэффективности:
Официальная цена систем DGX не публикуется, однако ориентиры известны. DGX H100 в конфигурации 8×GPU обычно оценивается в диапазоне 300–500 тыс. долларов, в зависимости от региона, сервисного пакета и сроков поставки. H200, появившийся позже, дороже примерно на 20–30 % при равных условиях.
Разница в цене оправдана при работе с крупными моделями — там, где H100 упирается в лимиты памяти и требует масштабирования кластера. При эквивалентной производительности на задачу H200 позволяет сократить количество узлов и энергопотребление, снижая совокупную стоимость владения (TCO).
С точки зрения ROI, для проектов с интенсивным инференсом и постоянной загрузкой GPU H200 окупается быстрее: снижение затрат на электроэнергию и меньшая потребность в масштабировании компенсируют начальную разницу в цене. Для классических исследовательских кластеров, где задачи чередуются и нагрузка непостоянна, H100 остаётся более рациональным выбором.
Факторы, влияющие на окупаемость:
H100 и H200 — две версии одной платформы NVIDIA Hopper, но с разной специализацией. Они не конкурируют напрямую, а закрывают разные потребности в инфраструктуре искусственного интеллекта и высокопроизводительных вычислениях.
Когда выбрать DGX H100:
Когда выбрать DGX H200:
В целом DGX H200 — логическое развитие архитектуры Hopper: тот же вычислительный потенциал, но с устранением узких мест по памяти и более высоким КПД. DGX H100 остаётся универсальным и проверенным решением, особенно если важна доступность и интеграция с существующими системами.
ServerICT поставляет и интегрирует серверные решения NVIDIA DGX под конкретные задачи бизнеса. Специалисты помогут выбрать конфигурацию, рассчитать окупаемость и внедрить инфраструктуру под ключ. Чтобы получить консультацию или запросить коммерческое предложение, оставьте заявку через форму обратной связи.
Мы делимся новостями отрасли, мнениями экспертов, полезными обзорами и обновлениями услуг.
Получайте уведомления от нас — будьте в курсе самого важного!
0 комментариев