loading

Esforce-se por líderes da indústria de capacitores líderes em tecnologia e custo

Ecossistema de hardware de servidor de IA: panorama de mercado de componentes principais e tendências futuras

Com o crescimento acelerado do mercado de servidores de IA, seu principal ecossistema de hardware está passando por uma profunda transformação. No primeiro trimestre de 2025, o mercado global de componentes de servidores e armazenamento cresceu 62% em relação ao ano anterior, atingindo uma taxa de crescimento recorde.

Esse crescimento é impulsionado pela implementação em larga escala de aplicativos de IA generativa — um "triângulo de crescimento" de GPUs aceleradoras de IA, memória de alta largura de banda (HBM) e placas de interface de rede (NICs) de alta velocidade que estão impulsionando uma atualização abrangente da infraestrutura do data center.

Chips de computação: mudanças em CPUs e ASICs

  • Mercado de CPU remodelado :No primeiro trimestre de 2025, a participação de remessas da AMD no mercado de CPUs de servidor atingiu 50% pela primeira vez, criando uma divisão acirrada com a Intel.
    Este marco decorre da iteração contínua dos processadores da série EPYC da AMD. A plataforma Turin de 5ª geração, lançada em 2024, aumentou a contagem de núcleos para um máximo de 192 núcleos, proporcionando vantagens significativas em cenários de inferência de IA. Quando combinado com 8 GPUs executando modelos grandes, o EPYC 9575F de alta frequência pode aumentar o desempenho do sistema em até 20%, melhorando drasticamente o ROI de uma única máquina.
  • Arquitetura ARM em ascensão : No mercado de servidores de IA, as CPUs baseadas em ARM ultrapassaram 25% de penetração pela primeira vez, impulsionadas por dois casos de uso principais: a plataforma GB200 da NVIDIA usa clusters de CPU baseados em ARM para pré-processamento de dados e agendamento de treinamento distribuído; enquanto isso, os servidores ARM internos dos provedores de nuvem — como AWS Graviton4 e Google T2D — oferecem desempenho de custo mais de 30% melhor do que as arquiteturas x86 em inferência de IA, aumentando suas remessas em 300% em relação ao ano anterior.
  • ASICs em alta :Para lidar com a expansão das cargas de trabalho de IA e reduzir a dependência da NVIDIA e da AMD, os gigantes globais da nuvem estão aumentando os investimentos no desenvolvimento de ASICs. Em 2025, a projeção é que as remessas de chips de IA da Amazon AWS cresçam mais de 70%, enquanto o Google lançou o TPU v6 Trillium, com foco em eficiência energética e otimização para modelos de larga escala.
    Na China, espera-se que os fornecedores locais de chips (por exemplo, Huawei Ascend, série Cambricon Thinking Yuan) conquistem 40% do mercado em 2025, quase igualando a participação dos chips importados, apoiados pelo apoio de políticas nacionais.

Revolução do Armazenamento: Dominância da HBM e Ondas de Personalização

  • Evolução da tecnologia e cenário de mercado da HBM :A memória de alta largura de banda (HBM) se tornou um componente essencial indispensável para servidores de IA. A SK Hynix, alavancando sua vantagem de produção em massa em HBM3e de 12/16 pilhas, comanda 64% do mercado. Seu HBM4 de última geração oferecerá mais de 2 TB/s de largura de banda, com eficiência energética 40% melhor e resistência ao calor quase 4% melhorada em comparação ao HBM3e.
    Notavelmente, a participação da HBM no consumo total de energia do servidor de IA aumentou de 12%, há alguns anos, para 18%, tornando seus ganhos de eficiência essenciais para reduzir o uso geral de energia do servidor.
  • HBM personalizado como o futuro :À medida que a infraestrutura de IA evolui, a HBM está mudando de produtos padronizados para personalização específica do cliente. Choi Jun-yong, chefe de negócios de HBM da SK Hynix, observa: “Os produtos HBM de uso geral não conseguem atender totalmente às necessidades diferenciadas dos fabricantes de chips de IA. Os clientes estão demonstrando grande interesse em HBM altamente personalizados.”
  • Desequilíbrio entre oferta e demanda e tendências de preços :O mercado de HBM enfrenta grave escassez de fornecimento. No primeiro trimestre de 2025, os preços do HBM aumentaram 35% em relação ao ano anterior, com módulos HBM3e de 16 GB ultrapassando US$ 1.200.
    A SK Hynix prevê que essa restrição persistirá até a produção em massa do HBM4 em 2026, com o mercado de memória de IA previsto para crescer 30% ao ano nos próximos seis anos. Para atender à crescente demanda, a SK Hynix aumentou a produção de HBM em 70% em relação ao trimestre anterior no primeiro trimestre de 2025, atendendo a pedidos de milhares de unidades de provedores de nuvem como Oracle e AWS.

Rede & Interconexões: atualizações de largura de banda impulsionadas por escalas de cluster

  • Aumento da demanda por largura de banda de rede :À medida que os tamanhos dos clusters de IA aumentam, a demanda por largura de banda de interconexão de rede cresce exponencialmente. No primeiro trimestre de 2025, o mercado de NICs de alta velocidade cresceu 62% em relação ao ano anterior, tornando-se um dos componentes de servidor de crescimento mais rápido.
    Em clusters de treinamento de IA ultragrandes, a tecnologia RDMA (Remote Direct Memory Access) reduziu a latência da rede para microssegundos, aumentando significativamente a eficiência do treinamento distribuído.
  • Atualizações de interconexão PCIe e CXL : Os servidores de IA de última geração adotam amplamente o PCIe 5.0, oferecendo taxas de transferência de dados de até 32 GT/s. A série EPYC 9005 da AMD oferece suporte a extensas faixas PCIe Gen5 e CXL 2.0, melhorando drasticamente a troca de dados entre CPUs e aceleradores. A plataforma de CPU de próxima geração da Intel também oferecerá suporte a PCIe 6.0, aumentando ainda mais as taxas de transferência de dados para 64 GT/s.
  • Mudanças na arquitetura de rede : Para dar suporte a clusters de IA de mil GPUs, as soluções InfiniBand e Ethernet de alta velocidade continuam a avançar. Os switches Quantum-3 400G InfiniBand da NVIDIA oferecem 400 Gb/s por porta, reduzindo em semanas o tempo de treinamento para clusters de 10.000 GPUs. Enquanto isso, dispositivos de rede refrigerados a líquido estão ganhando força, resolvendo problemas de gerenciamento de calor em configurações de alta densidade.

Componentes de suporte: atualizações de PCB e iteração de materiais

  • PCBs evoluindo para camadas e frequências mais altas : Os PCBs de servidores de IA estão migrando para contagens de camadas mais altas e designs de alta frequência e alta velocidade. Os servidores ASIC geralmente usam designs baseados em rack, com PCBs modelados com base na arquitetura Rack da NVIDIA, enviados como Compute Trays + Switch Trays.
    Como os provedores de nuvem não têm NVLink, seus PCBs Switch Tray excedem as especificações da NVIDIA. A demanda por PCBs de servidor ASIC deve aumentar — de menos de ¥ 10 bilhões em 2024 para quase ¥ 60 bilhões em 2027, respondendo por mais da metade da demanda total de PCBs de computação.
  • Atualizações de laminado revestido de cobre (CCL) : CCL, o material principal para PCBs, continua a avançar através dos graus M6, M7, M8 e M9 — com graus mais altos reduzindo a perda de sinal.
    Atualmente, a NVIDIA usa o M8 como material principal em seus servidores de IA. À medida que os requisitos de transmissão de sinal aumentam, espera-se que os graus M9 e superiores entrem em uso até 2026, impulsionando atualizações em materiais upstream como folha de cobre, tecido de vidro e resina.
  • Aumento da demanda por materiais térmicos :À medida que a densidade de potência do servidor de IA aumenta, o mercado de materiais de gerenciamento térmico está crescendo. O servidor GB300 da NVIDIA integra "design modular baseado em slots + interfaces de metal líquido + circuitos de resfriamento líquido de alta pressão", transformando o resfriamento líquido de um auxílio periférico em uma solução de núcleo em nível de chip.
    O mercado de refrigeração líquida deverá crescer mais de 100% em 2026 e 50% em 2027, atingindo ¥ 71,6 bilhões e ¥ 108,2 bilhões, respectivamente.

Desafios de mercado: desequilíbrios entre oferta e demanda e repasse de custos

O mercado de componentes de servidores de IA enfrenta três desafios principais:

  • Crises de entrega em expansão : Os índices de tempo de entrega de CPU/MCU aumentaram 20% em três meses, enquanto os índices de estoque despencaram 41,6% de dezembro a maio. Os prazos de entrega do FPGA são ainda mais críticos — alguns dispositivos AMD UltraScale+ enfrentam esperas de 52 semanas. Mudanças geográficas na cadeia de suprimentos (para evitar tarifas) e integração de novos fornecedores são os principais impulsionadores.
  • Aumentos de preços rígidos :Em meio à escassez de suprimentos, os principais componentes continuam a aumentar de preço. Em maio de 2025, os preços de CPU/MCU subiram 22,2% em relação ao mês anterior (em grande parte devido à escassez de chips Intel), enquanto os preços de FPGA subiram 7,6%. Os preços do HBM subiram 35% em relação ao ano anterior no primeiro trimestre de 2025, com módulos HBM3e de 16 GB ultrapassando US$ 1.200.
  • Mudanças nas estruturas de custos :Os semicondutores agora respondem por mais de 75% dos custos dos servidores de IA — acima dos 45% dos servidores tradicionais — com GPUs, HBM e chips de interconexão de alta velocidade compondo a maior parte. Um servidor de IA de ponta com 8 GPUs NVIDIA H100 custa mais de US$ 10.000 somente com HBM, o que representa de 15% a 20% dos custos totais da máquina.

Tendências futuras: fragmentação de ecossistemas e computação verde

  • Fragmentação do ecossistema de hardware :O ecossistema global de hardware de servidor de IA está se dividindo em três caminhos: 1) sistemas de GPU liderados pela NVIDIA + fabricantes contratados de Taiwan (por exemplo, GB200/GB300); 2) ASICs desenvolvidos por CSP + modelos ODM (por exemplo, Google TPU, Amazon Trainium); 3) alternativas locais da China (por exemplo, Sugon).
    A TrendForce prevê que o mercado de servidores de IA da China verá fornecedores locais de chips capturarem 40% em 2025 — quase igualando os chips importados.
  • Ascensão dos chips de inferência de ponta :À medida que os casos de uso de IA se expandem, o mercado de chips de inferência de ponta está crescendo rapidamente. Esses chips priorizam eficiência energética e baixa latência, com amplas aplicações em manufatura inteligente e direção autônoma. Os processadores EPYC da AMD se destacam na inferência de ponta para modelos com menos de 10 bilhões de parâmetros — os EPYC 9965s duplos oferecem o dobro da taxa de transferência de inferência da geração anterior.
  • Otimização Sinérgica de Computação e Armazenamento :Os servidores de IA de última geração se concentrarão mais na coordenação de recursos de computação e armazenamento. A SK Hynix está desenvolvendo soluções integradas de memória e computação, incorporando funções de computação em unidades de armazenamento para reduzir a sobrecarga de movimentação de dados. A AMD também está avançando no empilhamento 3D, integrando HBM com GPUs/CPUs em embalagens para aumentar a largura de banda e reduzir o consumo de energia.
  • Sustentabilidade como Métrica Essencial :À medida que a demanda por computação de IA aumenta exponencialmente, a computação verde se tornou um foco do setor. Dados da AMD mostram que em clusters de inferência de IA de 1.024 nós, os servidores ARM têm um PUE 0,3 menor que as soluções x86, economizando 3 milhões de kWh anualmente. O resfriamento líquido também está acelerando — a projeção é de que ultrapasse 45% de penetração em data centers de IA até 2027, um aumento de 30 pontos percentuais em relação a 2024.

O hardware é cada vez mais o campo de batalha da competição de IA — cada ganho na eficiência do chip remodela a economia do poder de computação. A AMD está capturando metade do mercado de CPUs para servidores, o HBM4 da SK Hynix está proporcionando ganhos de eficiência de 40% e os ASICs personalizados estão crescendo mais de 200% anualmente. Esses números apontam para três tendências no ecossistema de hardware de servidores de IA: do uso geral ao personalizado, do centralizado ao distribuído, do desempenho em primeiro lugar ao equilíbrio entre eficiência e custo.

Nos próximos três anos, conforme o GB300 entra em produção em massa, o HBM4 se torna difundido e o resfriamento líquido aumenta de escala, o "desempenho por watt" de um servidor de IA substituirá o "pico de potência computacional" como métrica principal. Nessa evolução de hardware, as empresas que primeiro traduzirem inovações em nível de chip em ganhos de eficiência em nível de sistema dominarão a próxima era da IA.
prev.
Como funciona uma ponte retificadora?
recommended for you
sem dados
Get in touch with us
A Linkeycon é uma fornecedora geral de soluções de capacitores eletrolíticos de alumínio fundada em 2005.
Entre em contato conosco
Pessoa de contato: April Lin
TEL: +86 13418998399
Adicionar:
Edifício 8&9&12,Fábrica de padronização de informações eletrônicas,Zona de Desenvolvimento Econômico de Susong,Província de Anhui,P. R.China.

R&Centro D: Sede Dongguan

centro de fabricação: Susong, Anqing, Anhui

Copyright © 2025 Anhui linkeycon Electronic Technology Co., Ltd. | Mapa do site  |  Política de Privacidade
Contate-Nos
whatsapp
email
Entre em contato com o atendimento ao cliente
Contate-Nos
whatsapp
email
cancelar
Customer service
detect