loading

Стремитесь к лидерам отрасли по производству конденсаторов с передовыми технологиями и ценами.

Экосистема аппаратного обеспечения серверов ИИ: рыночный ландшафт основных компонентов и будущие тенденции

На фоне бурного роста рынка серверов ИИ его основная аппаратная экосистема претерпевает глубокую трансформацию. В первом квартале 2025 года мировой рынок серверов и компонентов систем хранения данных вырос на 62% в годовом исчислении, достигнув рекордно высоких темпов роста.

Этот рост обусловлен полномасштабным развертыванием приложений генеративного ИИ — «треугольника роста» графических процессоров-ускорителей ИИ, высокоскоростной памяти (HBM) и высокоскоростных сетевых интерфейсных карт (NIC), который подпитывает комплексную модернизацию инфраструктуры центров обработки данных.

Вычислительные чипы: изменения в процессорах и микросхемах ASIC

  • Рынок процессоров изменился : В первом квартале 2025 года доля поставок AMD на рынке серверных процессоров впервые достигла 50%, создав прямой разрыв с Intel.
    Этот рубеж стал результатом непрерывного совершенствования AMD серии процессоров EPYC. Платформа Turin пятого поколения, выпущенная в 2024 году, увеличила количество ядер до 192, что обеспечивает значительные преимущества в сценариях вывода ИИ. В сочетании с 8 графическими процессорами, работающими с большими моделями, высокочастотный EPYC 9575F может повысить производительность системы до 20%, радикально улучшая окупаемость инвестиций в одну машину.
  • Архитектура ARM на подъеме : На рынке серверов ИИ проникновение процессоров на базе ARM впервые превысило 25%, чему способствовали два основных варианта использования: платформа NVIDIA GB200 использует кластеры процессоров на базе ARM для предварительной обработки данных и распределенного планирования обучения; в то же время внутренние серверы ARM поставщиков облачных услуг, такие как AWS Graviton4 и Google T2D, предлагают более чем на 30% лучшее соотношение цены и производительности по сравнению с архитектурой x86 в области вывода ИИ, что привело к росту их поставок на 300% по сравнению с прошлым годом.
  • Бум ASIC-майнеров : Чтобы справиться с растущими рабочими нагрузками ИИ и снизить зависимость от NVIDIA и AMD, мировые гиганты облачных вычислений наращивают инвестиции в разработку ASIC. Ожидается, что к 2025 году поставки ИИ-чипов Amazon AWS вырастут более чем на 70%, в то время как Google запустила TPU v6 Trillium, сосредоточившись на энергоэффективности и оптимизации для крупномасштабных моделей.
    В Китае ожидается, что местные поставщики микросхем (например, Huawei Ascend, Cambricon Thinking Yuan) займут 40% рынка в 2025 году, что почти соответствует доле импортных микросхем, при поддержке национальной политики.

Революция в области хранения данных: доминирование HBM и волны кастомизации

  • Эволюция технологий HBM и ландшафт рынка : Память с высокой пропускной способностью (HBM) стала незаменимым основным компонентом для серверов ИИ. SK Hynix, используя свое преимущество в массовом производстве 12/16-стековых HBM3e, контролирует 64% рынка. Новое поколение HBM4 обеспечит пропускную способность более 2 ТБ/с, при этом энергоэффективность повысится на 40%, а термостойкость повысится почти на 4% по сравнению с HBM3e.
    Примечательно, что доля HBM в общем энергопотреблении серверов ИИ выросла с 12% несколько лет назад до 18%, что делает повышение эффективности критически важным для снижения общего энергопотребления серверов.
  • Кастомный HBM как будущее : По мере развития инфраструктуры ИИ компания HBM переходит от стандартизированных продуктов к индивидуальной настройке под конкретного клиента. Чхве Джун-ён, руководитель направления HBM компании SK Hynix, отмечает: «Продукты HBM общего назначения не могут полностью удовлетворить дифференцированные потребности производителей микросхем для ИИ — клиенты проявляют большой интерес к высокоиндивидуализированным HBM».
  • Дисбаланс спроса и предложения и ценовые тенденции : Рынок HBM сталкивается с серьезным дефицитом поставок. В первом квартале 2025 года цены на HBM выросли на 35% по сравнению с аналогичным периодом прошлого года, а стоимость модулей HBM3e емкостью 16 ГБ превысила 1200 долларов США.
    По прогнозам SK Hynix, эта напряженность сохранится до начала массового производства HBM4 в 2026 году, а рынок памяти для ИИ будет ежегодно расти на 30% в течение следующих шести лет. Чтобы удовлетворить растущий спрос, компания SK Hynix увеличила производство HBM на 70% по сравнению с предыдущим кварталом в первом квартале 2025 года, выполняя заказы объемом в несколько тысяч единиц от таких поставщиков облачных услуг, как Oracle и AWS.

Нетворкинг & Межсоединения: увеличение пропускной способности за счет масштабирования кластера

  • Растущий спрос на пропускную способность сети : По мере увеличения размеров кластеров ИИ спрос на пропускную способность сетевых соединений растет экспоненциально. В первом квартале 2025 года рынок высокоскоростных сетевых карт вырос на 62% по сравнению с аналогичным периодом прошлого года, став одним из самых быстрорастущих серверных компонентов.
    В сверхбольших кластерах обучения ИИ технология RDMA (удалённый прямой доступ к памяти) сократила задержку сети до микросекунд, значительно повысив эффективность распределённого обучения.
  • Модернизация межсоединений PCIe и CXL : Серверы искусственного интеллекта нового поколения широко используют PCIe 5.0, обеспечивая скорость передачи данных до 32 ГТ/с. Серия AMD EPYC 9005 поддерживает расширенные линии PCIe Gen5 и CXL 2.0, что значительно улучшает обмен данными между процессорами и ускорителями. Платформа процессоров Intel следующего поколения также будет поддерживать PCIe 6.0, что позволит увеличить скорость передачи данных до 64 ГТ/с.
  • Изменения в сетевой архитектуре : Для поддержки кластеров искусственного интеллекта с тысячами графических процессоров продолжают совершенствоваться решения InfiniBand и высокоскоростного Ethernet. Коммутаторы NVIDIA Quantum-3 400G InfiniBand обеспечивают скорость 400 Гбит/с на порт, сокращая время обучения кластеров из 10 000 графических процессоров на несколько недель. Тем временем сетевые устройства с жидкостным охлаждением набирают популярность, решая проблемы управления теплом в высокоплотных установках.

Вспомогательные компоненты: модернизация печатных плат и итерация материалов

  • Печатные платы развиваются в сторону более высоких слоев и частот : Печатные платы серверов ИИ переходят на более многослойные конструкции с высокой частотой и высокой скоростью. Серверы ASIC часто используют стоечную конструкцию с печатными платами, смоделированными по образцу архитектуры NVIDIA Rack, и поставляются в виде вычислительных лотков + коммутаторов.
    Поскольку у поставщиков облачных услуг отсутствует NVLink, их печатные платы Switch Tray превосходят спецификации NVIDIA. Прогнозируется, что спрос на серверные печатные платы ASIC резко возрастет — с менее 10 млрд иен в 2024 году до почти 60 млрд иен к 2027 году, что составит более половины общего спроса на вычислительные печатные платы.
  • Модернизация ламината с медным покрытием (CCL) : CCL, основной материал для печатных плат, продолжает совершенствоваться благодаря появлению марок M6, M7, M8 и M9, причем более высокие марки уменьшают потери сигнала.
    В настоящее время NVIDIA использует M8 в качестве основного материала в своих серверах ИИ. По мере роста требований к передаче сигнала ожидается, что к 2026 году начнут использоваться марки M9 и выше, что приведет к модернизации таких материалов, как медная фольга, стеклоткань и смола.
  • Растущий спрос на термоматериалы : По мере роста плотности мощности серверов ИИ рынок материалов для терморегулирования переживает бум. Сервер NVIDIA GB300 объединяет в себе «модульную конструкцию на основе слотов + интерфейсы на основе жидкого металла + контуры жидкостного охлаждения высокого давления», превращая жидкостное охлаждение из периферийного средства в решение на уровне ядра чипа.
    Прогнозируется, что рынок жидкостного охлаждения вырастет более чем на 100% в 2026 году и на 50% в 2027 году, достигнув 71,6 млрд и 108,2 млрд иен соответственно.

Проблемы рынка: дисбаланс спроса и предложения и перенос издержек

Рынок компонентов серверов ИИ сталкивается с тремя ключевыми проблемами:

  • Распространение кризисов доставки : Индексы времени выполнения заказов ЦП/МК выросли на 20% за три месяца, в то время как индексы запасов упали на 41,6% с декабря по май. Сроки поставки ПЛИС еще более критичны: для некоторых устройств AMD UltraScale+ время ожидания составляет 52 недели. Основными факторами являются географические изменения в цепочке поставок (чтобы избежать тарифов) и привлечение новых поставщиков.
  • Резкое повышение цен : В условиях дефицита поставок ключевые комплектующие продолжают дорожать. В мае 2025 года цены на центральные процессоры/микроконтроллеры выросли на 22,2% по сравнению с предыдущим месяцем (в основном из-за дефицита чипов Intel), тогда как цены на ПЛИС выросли на 7,6%. Цены на HBM выросли на 35% в годовом исчислении в первом квартале 2025 года, при этом стоимость модулей HBM3e емкостью 16 ГБ превысила 1200 долларов США.
  • Изменение структуры затрат : На полупроводники теперь приходится более 75% затрат на серверы ИИ (по сравнению с 45% в традиционных серверах), при этом основную часть составляют графические процессоры, HBM и высокоскоростные микросхемы межсоединений. Высокопроизводительный сервер искусственного интеллекта с 8 графическими процессорами NVIDIA H100 обходится только в HBM более чем в 10 000 долларов, что составляет 15–20 % от общей стоимости оборудования.

Будущие тенденции: фрагментация экосистемы и экологичные вычисления

  • Фрагментация аппаратной экосистемы : Глобальная экосистема аппаратного обеспечения серверов ИИ разделяется на три пути: 1) системы GPU под руководством NVIDIA и тайваньских контрактных производителей (например, GB200/GB300); 2) модели ASIC, разработанные CSP + ODM (например, Google TPU, Amazon Trainium); 3) локальные китайские альтернативы (например, Sugon).
    TrendForce прогнозирует, что к 2025 году на китайском рынке серверов искусственного интеллекта местные поставщики чипов займут 40%, что почти соответствует уровню импорта чипов.
  • Рост чипов периферийного вывода : По мере расширения сфер применения искусственного интеллекта рынок микросхем периферийного вывода стремительно растет. Приоритетом этих чипов является энергоэффективность и низкая задержка, что позволяет широко применять их в интеллектуальном производстве и автономном вождении. Процессоры AMD EPYC превосходны в области периферийного вывода для моделей с числом параметров менее 10 миллиардов — два процессора EPYC 9965 обеспечивают вдвое большую пропускную способность вывода по сравнению с предыдущим поколением.
  • Синергетическая оптимизация вычислений и хранения : Серверы ИИ следующего поколения будут больше фокусироваться на координации вычислительных возможностей и возможностей хранения данных. Компания SK Hynix разрабатывает интегрированные решения на основе памяти и вычислений, встраивая вычислительные функции в блоки хранения данных для снижения накладных расходов на перемещение данных. AMD также совершенствует 3D-стекинг, интегрируя HBM с графическими процессорами/центральными процессорами в одном корпусе для повышения пропускной способности и снижения энергопотребления.
  • Устойчивость как основной показатель : Поскольку спрос на вычисления в области искусственного интеллекта стремительно растёт, в центре внимания отрасли оказались экологически чистые вычисления. Данные AMD показывают, что в кластерах вывода ИИ из 1024 узлов серверы ARM имеют PUE на 0,3 ниже, чем решения x86, что позволяет экономить 3 млн кВт·ч в год. Жидкостное охлаждение также набирает обороты: по прогнозам, к 2027 году его проникновение в центры обработки данных ИИ превысит 45%, что на 30 процентных пунктов больше, чем в 2024 году.

Аппаратное обеспечение все чаще становится полем битвы в сфере искусственного интеллекта: каждый шаг повышения эффективности микросхемы меняет экономику вычислительной мощности. AMD захватывает половину рынка серверных процессоров, HBM4 от SK Hynix обеспечивает прирост эффективности 40%, специализированные микросхемы ASIC растут более чем на 200% в год — эти цифры указывают на три тенденции в экосистеме серверного оборудования ИИ: от универсального назначения к специализированному, от централизованного к распределенному, от ориентированного на производительность к балансу эффективности и затрат.

В течение следующих трех лет, по мере того как GB300 поступит в массовое производство, HBM4 получит широкое распространение, а жидкостное охлаждение масштабируется, «производительность на ватт» ИИ-сервера заменит «пиковую вычислительную мощность» в качестве основного показателя. В ходе этой эволюции аппаратного обеспечения компании, которые первыми преобразуют инновации на уровне чипов в повышение эффективности на системном уровне, будут доминировать в следующей эре ИИ.
предыдущий
Как работает мостовой выпрямитель?
recommended for you
нет данных
Get in touch with us
Linkeycon — поставщик комплексных решений в области алюминиевых электролитических конденсаторов, основанный в 2005 году.
Свяжитесь с нами
Контактное лицо: Эйприл Лин
TEL: +86 13418998399
Электронная почта: April@linkeycon.com
Добавить:
Здание 8&9&12, Фабрика стандартизации электронной информации, зона экономического развития Сусон, провинция Аньхой, П. Р .Китай.

R&Д-центр: Штаб-квартира Дунгуань

Производственный центр: Сусонг, Аньцин, Аньхой

Copyright © 2025 Аньхойская компания linkeycon Electronic Technology Co., Ltd. | Карта сайта  |  Политика конфиденциальности
Связаться с нами
whatsapp
email
Свяжитесь с обслуживанием клиентов
Связаться с нами
whatsapp
email
Отмена
Customer service
detect