На фоне бурного роста рынка серверов ИИ его основная аппаратная экосистема претерпевает глубокую трансформацию. В первом квартале 2025 года мировой рынок серверов и компонентов систем хранения данных вырос на 62% в годовом исчислении, достигнув рекордно высоких темпов роста.
Этот рост обусловлен полномасштабным развертыванием приложений генеративного ИИ — «треугольника роста» графических процессоров-ускорителей ИИ, высокоскоростной памяти (HBM) и высокоскоростных сетевых интерфейсных карт (NIC), который подпитывает комплексную модернизацию инфраструктуры центров обработки данных.
Вычислительные чипы: изменения в процессорах и микросхемах ASIC
Рынок процессоров изменился
: В первом квартале 2025 года доля поставок AMD на рынке серверных процессоров впервые достигла 50%, создав прямой разрыв с Intel.
Этот рубеж стал результатом непрерывного совершенствования AMD серии процессоров EPYC. Платформа Turin пятого поколения, выпущенная в 2024 году, увеличила количество ядер до 192, что обеспечивает значительные преимущества в сценариях вывода ИИ. В сочетании с 8 графическими процессорами, работающими с большими моделями, высокочастотный EPYC 9575F может повысить производительность системы до 20%, радикально улучшая окупаемость инвестиций в одну машину.
Архитектура ARM на подъеме
: На рынке серверов ИИ проникновение процессоров на базе ARM впервые превысило 25%, чему способствовали два основных варианта использования: платформа NVIDIA GB200 использует кластеры процессоров на базе ARM для предварительной обработки данных и распределенного планирования обучения; в то же время внутренние серверы ARM поставщиков облачных услуг, такие как AWS Graviton4 и Google T2D, предлагают более чем на 30% лучшее соотношение цены и производительности по сравнению с архитектурой x86 в области вывода ИИ, что привело к росту их поставок на 300% по сравнению с прошлым годом.
Бум ASIC-майнеров
: Чтобы справиться с растущими рабочими нагрузками ИИ и снизить зависимость от NVIDIA и AMD, мировые гиганты облачных вычислений наращивают инвестиции в разработку ASIC. Ожидается, что к 2025 году поставки ИИ-чипов Amazon AWS вырастут более чем на 70%, в то время как Google запустила TPU v6 Trillium, сосредоточившись на энергоэффективности и оптимизации для крупномасштабных моделей.
В Китае ожидается, что местные поставщики микросхем (например, Huawei Ascend, Cambricon Thinking Yuan) займут 40% рынка в 2025 году, что почти соответствует доле импортных микросхем, при поддержке национальной политики.
Революция в области хранения данных: доминирование HBM и волны кастомизации
Эволюция технологий HBM и ландшафт рынка
: Память с высокой пропускной способностью (HBM) стала незаменимым основным компонентом для серверов ИИ. SK Hynix, используя свое преимущество в массовом производстве 12/16-стековых HBM3e, контролирует 64% рынка. Новое поколение HBM4 обеспечит пропускную способность более 2 ТБ/с, при этом энергоэффективность повысится на 40%, а термостойкость повысится почти на 4% по сравнению с HBM3e.
Примечательно, что доля HBM в общем энергопотреблении серверов ИИ выросла с 12% несколько лет назад до 18%, что делает повышение эффективности критически важным для снижения общего энергопотребления серверов.
Кастомный HBM как будущее
: По мере развития инфраструктуры ИИ компания HBM переходит от стандартизированных продуктов к индивидуальной настройке под конкретного клиента. Чхве Джун-ён, руководитель направления HBM компании SK Hynix, отмечает: «Продукты HBM общего назначения не могут полностью удовлетворить дифференцированные потребности производителей микросхем для ИИ — клиенты проявляют большой интерес к высокоиндивидуализированным HBM».
Дисбаланс спроса и предложения и ценовые тенденции
: Рынок HBM сталкивается с серьезным дефицитом поставок. В первом квартале 2025 года цены на HBM выросли на 35% по сравнению с аналогичным периодом прошлого года, а стоимость модулей HBM3e емкостью 16 ГБ превысила 1200 долларов США.
По прогнозам SK Hynix, эта напряженность сохранится до начала массового производства HBM4 в 2026 году, а рынок памяти для ИИ будет ежегодно расти на 30% в течение следующих шести лет. Чтобы удовлетворить растущий спрос, компания SK Hynix увеличила производство HBM на 70% по сравнению с предыдущим кварталом в первом квартале 2025 года, выполняя заказы объемом в несколько тысяч единиц от таких поставщиков облачных услуг, как Oracle и AWS.
Нетворкинг & Межсоединения: увеличение пропускной способности за счет масштабирования кластера
Растущий спрос на пропускную способность сети
: По мере увеличения размеров кластеров ИИ спрос на пропускную способность сетевых соединений растет экспоненциально. В первом квартале 2025 года рынок высокоскоростных сетевых карт вырос на 62% по сравнению с аналогичным периодом прошлого года, став одним из самых быстрорастущих серверных компонентов.
В сверхбольших кластерах обучения ИИ технология RDMA (удалённый прямой доступ к памяти) сократила задержку сети до микросекунд, значительно повысив эффективность распределённого обучения.
Модернизация межсоединений PCIe и CXL
: Серверы искусственного интеллекта нового поколения широко используют PCIe 5.0, обеспечивая скорость передачи данных до 32 ГТ/с. Серия AMD EPYC 9005 поддерживает расширенные линии PCIe Gen5 и CXL 2.0, что значительно улучшает обмен данными между процессорами и ускорителями. Платформа процессоров Intel следующего поколения также будет поддерживать PCIe 6.0, что позволит увеличить скорость передачи данных до 64 ГТ/с.
Изменения в сетевой архитектуре
: Для поддержки кластеров искусственного интеллекта с тысячами графических процессоров продолжают совершенствоваться решения InfiniBand и высокоскоростного Ethernet. Коммутаторы NVIDIA Quantum-3 400G InfiniBand обеспечивают скорость 400 Гбит/с на порт, сокращая время обучения кластеров из 10 000 графических процессоров на несколько недель. Тем временем сетевые устройства с жидкостным охлаждением набирают популярность, решая проблемы управления теплом в высокоплотных установках.
Вспомогательные компоненты: модернизация печатных плат и итерация материалов
Печатные платы развиваются в сторону более высоких слоев и частот
: Печатные платы серверов ИИ переходят на более многослойные конструкции с высокой частотой и высокой скоростью. Серверы ASIC часто используют стоечную конструкцию с печатными платами, смоделированными по образцу архитектуры NVIDIA Rack, и поставляются в виде вычислительных лотков + коммутаторов.
Поскольку у поставщиков облачных услуг отсутствует NVLink, их печатные платы Switch Tray превосходят спецификации NVIDIA. Прогнозируется, что спрос на серверные печатные платы ASIC резко возрастет — с менее 10 млрд иен в 2024 году до почти 60 млрд иен к 2027 году, что составит более половины общего спроса на вычислительные печатные платы.
Модернизация ламината с медным покрытием (CCL)
: CCL, основной материал для печатных плат, продолжает совершенствоваться благодаря появлению марок M6, M7, M8 и M9, причем более высокие марки уменьшают потери сигнала.
В настоящее время NVIDIA использует M8 в качестве основного материала в своих серверах ИИ. По мере роста требований к передаче сигнала ожидается, что к 2026 году начнут использоваться марки M9 и выше, что приведет к модернизации таких материалов, как медная фольга, стеклоткань и смола.
Растущий спрос на термоматериалы
: По мере роста плотности мощности серверов ИИ рынок материалов для терморегулирования переживает бум. Сервер NVIDIA GB300 объединяет в себе «модульную конструкцию на основе слотов + интерфейсы на основе жидкого металла + контуры жидкостного охлаждения высокого давления», превращая жидкостное охлаждение из периферийного средства в решение на уровне ядра чипа.
Прогнозируется, что рынок жидкостного охлаждения вырастет более чем на 100% в 2026 году и на 50% в 2027 году, достигнув 71,6 млрд и 108,2 млрд иен соответственно.
Проблемы рынка: дисбаланс спроса и предложения и перенос издержек
Рынок компонентов серверов ИИ сталкивается с тремя ключевыми проблемами:
Распространение кризисов доставки
: Индексы времени выполнения заказов ЦП/МК выросли на 20% за три месяца, в то время как индексы запасов упали на 41,6% с декабря по май. Сроки поставки ПЛИС еще более критичны: для некоторых устройств AMD UltraScale+ время ожидания составляет 52 недели. Основными факторами являются географические изменения в цепочке поставок (чтобы избежать тарифов) и привлечение новых поставщиков.
Резкое повышение цен
: В условиях дефицита поставок ключевые комплектующие продолжают дорожать. В мае 2025 года цены на центральные процессоры/микроконтроллеры выросли на 22,2% по сравнению с предыдущим месяцем (в основном из-за дефицита чипов Intel), тогда как цены на ПЛИС выросли на 7,6%. Цены на HBM выросли на 35% в годовом исчислении в первом квартале 2025 года, при этом стоимость модулей HBM3e емкостью 16 ГБ превысила 1200 долларов США.
Изменение структуры затрат
: На полупроводники теперь приходится более 75% затрат на серверы ИИ (по сравнению с 45% в традиционных серверах), при этом основную часть составляют графические процессоры, HBM и высокоскоростные микросхемы межсоединений. Высокопроизводительный сервер искусственного интеллекта с 8 графическими процессорами NVIDIA H100 обходится только в HBM более чем в 10 000 долларов, что составляет 15–20 % от общей стоимости оборудования.
Будущие тенденции: фрагментация экосистемы и экологичные вычисления
Фрагментация аппаратной экосистемы
: Глобальная экосистема аппаратного обеспечения серверов ИИ разделяется на три пути: 1) системы GPU под руководством NVIDIA и тайваньских контрактных производителей (например, GB200/GB300); 2) модели ASIC, разработанные CSP + ODM (например, Google TPU, Amazon Trainium); 3) локальные китайские альтернативы (например, Sugon).
TrendForce прогнозирует, что к 2025 году на китайском рынке серверов искусственного интеллекта местные поставщики чипов займут 40%, что почти соответствует уровню импорта чипов.
Рост чипов периферийного вывода
: По мере расширения сфер применения искусственного интеллекта рынок микросхем периферийного вывода стремительно растет. Приоритетом этих чипов является энергоэффективность и низкая задержка, что позволяет широко применять их в интеллектуальном производстве и автономном вождении. Процессоры AMD EPYC превосходны в области периферийного вывода для моделей с числом параметров менее 10 миллиардов — два процессора EPYC 9965 обеспечивают вдвое большую пропускную способность вывода по сравнению с предыдущим поколением.
Синергетическая оптимизация вычислений и хранения
: Серверы ИИ следующего поколения будут больше фокусироваться на координации вычислительных возможностей и возможностей хранения данных. Компания SK Hynix разрабатывает интегрированные решения на основе памяти и вычислений, встраивая вычислительные функции в блоки хранения данных для снижения накладных расходов на перемещение данных. AMD также совершенствует 3D-стекинг, интегрируя HBM с графическими процессорами/центральными процессорами в одном корпусе для повышения пропускной способности и снижения энергопотребления.
Устойчивость как основной показатель
: Поскольку спрос на вычисления в области искусственного интеллекта стремительно растёт, в центре внимания отрасли оказались экологически чистые вычисления. Данные AMD показывают, что в кластерах вывода ИИ из 1024 узлов серверы ARM имеют PUE на 0,3 ниже, чем решения x86, что позволяет экономить 3 млн кВт·ч в год. Жидкостное охлаждение также набирает обороты: по прогнозам, к 2027 году его проникновение в центры обработки данных ИИ превысит 45%, что на 30 процентных пунктов больше, чем в 2024 году.
Аппаратное обеспечение все чаще становится полем битвы в сфере искусственного интеллекта: каждый шаг повышения эффективности микросхемы меняет экономику вычислительной мощности. AMD захватывает половину рынка серверных процессоров, HBM4 от SK Hynix обеспечивает прирост эффективности 40%, специализированные микросхемы ASIC растут более чем на 200% в год — эти цифры указывают на три тенденции в экосистеме серверного оборудования ИИ: от универсального назначения к специализированному, от централизованного к распределенному, от ориентированного на производительность к балансу эффективности и затрат.
В течение следующих трех лет, по мере того как GB300 поступит в массовое производство, HBM4 получит широкое распространение, а жидкостное охлаждение масштабируется, «производительность на ватт» ИИ-сервера заменит «пиковую вычислительную мощность» в качестве основного показателя. В ходе этой эволюции аппаратного обеспечения компании, которые первыми преобразуют инновации на уровне чипов в повышение эффективности на системном уровне, будут доминировать в следующей эре ИИ.