Как выбрать 6 Авг 2025
.2 мин.
Как выбрать 6 Авг 2025
.2 мин.
В мире современных технологий, где искусственный интеллект и машинное обучение стали ключевыми драйверами развития, доступ к высокопроизводительным вычислительным мощностям превратился в стратегический ресурс. От поставок серверного оборудования зависит, как будет развиваться вся экономика целого государства. Однако геополитические реалии внесли свои коррективы: санкции против России и Китая существенно ограничили доступ этих стран к передовым GPU-ускорителям от NVIDIA — A100, H100 и новейшим H200.
Но рынок, как известно, не терпит пустоты. Там, где возникают барьеры, неизбежно появляются и обходные пути. В этой статье мы расскажем, как в условиях санкционного давления формируется альтернативный рынок высокопроизводительных GPU, и что такое загадочные «OEM-версии» видеокарт, которые стали спасательным кругом для многих компаний.
В октябре 2022 года США ввели ограничения на поставки в Китай высокопроизводительных чипов, включая GPU NVIDIA A100 и H100. Позже эти ограничения были расширены и на Россию. Причина запрета проста: эти ускорители являются ключевыми компонентами для разработки передовых систем искусственного интеллекта, которые могут использоваться в том числе и в военных целях.
Для NVIDIA это стало серьезным ударом — китайский рынок был одним из крупнейших для компании. В ответ на санкции NVIDIA выпустила специальные «китайские» версии своих ускорителей с пониженной производительностью — A800 и H800, которые соответствовали экспортным ограничениям. Однако в октябре 2023 года США ужесточили правила, и даже эти «урезанные» версии попали под запрет. В апреле 2025 года появилась информация о том, что производитель чипов Nvidia ожидает потерю $5,5 млрд прибыли из-за ограничений на экспорт чипов в Китай.
Что касается России, то здесь ситуация еще жестче — прямые поставки серверного оборудования и любых высокопроизводительных GPU от NVIDIA полностью прекращены.
Первым делом стоит разобраться, почему высокопроизводительные чипы NVIDIA пользуются таким спросом.

A100 — это GPU-ускоритель, выпущенный NVIDIA в 2020 году на базе архитектуры Ampere. Это настоящий монстр производительности, предназначенный для центров обработки данных и задач ИИ.
H100 — следующее поколение GPU-ускорителей NVIDIA, выпущенное в 2022 году на базе архитектуры Hopper. По сравнению с A100, H100 предлагает значительный прирост производительности, особенно в задачах искусственного интеллекта.
H200 — самый новый и мощный GPU-ускоритель NVIDIA, анонсированный в конце 2023 года. Это обновленная версия H100 с улучшенной памятью и производительностью.
| A100 | H100 | H200 | |
| Память и ее пропускная способность | до 80 ГБ HBM2e
до 2 ТБ/с |
до 80 ГБ HBM3
до 3.35 ТБ/с |
141 ГБ HBM3e
до 4.8 ТБ/с |
| Производительность в операциях с плавающей точкой двойной точности | до 19.5 TFLOPS | до 312 TFLOPS | |
| Производительность
в операциях с тензорами для задач ИИ |
до 26 TFLOPS | до 1000 TFLOPS | |
| Особенности | Поддержка технологии MultiInstance GPU (MIG), позволяющей разделить один физический GPU на до 7 изолированных экземпляров | Новый Transformer Engine для ускорения работы с большими языковыми моделями. | Увеличенная производительность в задачах генеративного ИИ,
совместимость с существующими системами на базе H100. |
A100, H100 и H200 выпускаются в двух основных форм-факторах:
Для понимания особенностей серого рынка GPU кратко рассмотрим различия между двумя основными форм-факторами: PCIe и SXM.
| PCIe
(Peripheral Component Interconnect Express) |
SXM
(Server Form Factor with NVLink) |
| Стандартный интерфейс для подключения компонентов к материнской плате компьютера или сервера. GPU в форм-факторе PCIe выглядят как обычные видеокарты и могут быть установлены в любой сервер со свободным слотом PCIe. | Специализированный форм-фактор, разработанный NVIDIA для своих серверных решений. GPU в форм-факторе SXM устанавливаются на специальные платы NVIDIA HGX, обеспечивающие высокоскоростное соединение между несколькими GPU через технологию NVLink. |
| Преимущества | |
|
|
| Недостатки | |
|
|
В условиях санкций китайские компании нашли оригинальный способ обойти ограничения — они покупают полные серверные системы NVIDIA HGX (которые содержат 4 или 8 SXM-модулей), а затем разбирают их на отдельные компоненты. Этот процесс стал основой для формирования «OEM-версий» высокопроизводительных GPU. Так рынке поставок серверного и высокопроизводительного оборудования произошли тектонические сдвиги.
Как работает схема:

| Модель | Цена оригинала | Цена OEM-версии | Разница |
| A100 40GB PCIe | $14,300 | $5,500 | 61,54% |
| A100 80GB PCIe | $27,450 | $12,100 | 55,93% |
| H100 80GB PCIe | $35,000 | $28,500 | 18,57% |
Согласно информации от китайских поставщиков, OEM-версии GPU функционально идентичны оригинальным PCIe-картам от NVIDIA. Однако есть несколько важных нюансов:
Российский рынок высокопроизводительных вычислений столкнулся с теми же санкционными ограничениями, что и китайский, но имеет свою специфику. В отличие от Китая, где существует развитая инфраструктура для модификации оборудования, Россия в большей степени зависит от импорта уже готовых решений.
Основными потребителями A100, H100 и H200 в России являются:
Основной путь поставок высокопроизводительных GPU в Россию — через китайских посредников, которые уже наладили схемы обхода санкций. Российские компании приобретают как оригинальные PCIe-карты (по значительно завышенным ценам), так и более доступные OEM-версии, переделанные из SXM-модулей.
Какого будущего стоит ожидать сфере OEM-карт:
Нельзя не отметить, что выбор OEM-карт при организации поставок серверного оборудования находится в серой зоне с точки зрения международного права и корпоративных политик. Компании, использующие такое оборудование, должны осознавать связанные с этим риски, включая потенциальные юридические последствия и отсутствие официальной поддержки.
В то же время, эта ситуация поднимает более широкие вопросы о доступе к технологиям в глобализированном мире и о том, насколько эффективны технологические санкции в эпоху, когда информация и ноу-хау могут распространяться несмотря на формальные ограничения.
P.S. Несмотря на запреты, рынок высокопроизводительных GPU продолжает развиваться, адаптируясь к новым реалиям. OEM-версии видеокарт, переделанные из SXM-модулей, стали важным элементом этого рынка, обеспечивая доступ к передовым технологиям для компаний и исследовательских центров в странах, попавших под санкции.

В чем разница между SXM и PCIe?
SXM и PCIe — это форм-факторы, в которых выпускаются видеокарты NVIDIA A100, H100 и H200. PCIe — стандартная карта расширения, которая устанавливается в слот PCIe сервера. SXM — специальный форм-фактор для установки на серверные платы NVIDIA HGX.
Что такое OEM-версия видеокарты NVIDIA?
OEM-видеокарта NVIDIA — это извлеченные из серверных систем NVIDIA HGX модули SXM, адаптированные для работы через интерфейс PCIe. OEM-версии получили распространение в Китае и России, где существуют строгие импортные запреты на поставки высокопроизводительных чипов NVIDIA, установленные правительством США.
Какие риски при покупке OEM-карт?
OEM-версии, переделанные из SXM в PCIe, могут определяться в системе как SXM-карты, что потенциально может вызывать проблемы с драйверами или ПО. Под вопросом остается возможность совместной работы OEM-версий с оригинальными картами в одной системе. Также при переделке в PCIe-формат нарушается система отвода тепла, что сказывается на долговечности и стабильности. На гарантию от NVIDIA при самовольном вмешательстве в конструкцию рассчитывать не приходится.
Чем SXM лучше PCIe (или наоборот) для ИИ-задач?
SXM-модули — это значительно более высокая пропускная способность между GPU (до 600 ГБ/с на GPU с NVSwitch), эффективное масштабирование при использовании нескольких GPU, высокие тепловые лимиты, позволяющие достичь максимальной производительности. Для ИИ-задач это идеальный вариант, вытягивающий из современных технологий все возможности. С другой стороны, PCIe обеспечивает универсальность и совместимость с широким спектром серверов, простоту установки и замены, а также обходится дешевле SXM.
Как определить, какая карта подойдет для моего проекта?
A100 — это младший GPU-ускоритель, представленный в 2020 году и предназначенный для рядовых центров обработки данных и задач ИИ. H100 — следующее поколение, выпущенное в 2022 году на базе архитектуры Hopper. По сравнению с A100, H100 предлагает значительный прирост производительности, особенно в задачах искусственного интеллекта. H200 — самый новый и мощный GPU-ускоритель NVIDIA, анонсированный в конце 2023 года. Это обновленная версия H100 с улучшенной памятью и производительностью. Чем сложнее задача, тем мощнее видеочип потребуется.
Мы делимся новостями отрасли, мнениями экспертов, полезными обзорами и обновлениями услуг.
Получайте уведомления от нас — будьте в курсе самого важного!
0 комментариев