Di balik pesatnya pertumbuhan pasar server AI, ekosistem perangkat keras intinya tengah mengalami transformasi besar. Pada Q1 2025, pasar komponen server dan penyimpanan global melonjak 62% tahun-ke-tahun, mencapai tingkat pertumbuhan tertinggi yang pernah tercatat.
Pertumbuhan ini didorong oleh peluncuran aplikasi AI generatif berskala penuh—sebuah "segitiga pertumbuhan" yang terdiri dari GPU akselerator AI, memori bandwidth tinggi (HBM), dan kartu antarmuka jaringan (NIC) berkecepatan tinggi yang mendorong peningkatan menyeluruh infrastruktur pusat data.
Chip Komputasi: Pergeseran dalam CPU dan ASIC
Pasar CPU Dibentuk Ulang
:Pada Q1 2025, pangsa pengiriman AMD di pasar CPU server mencapai 50% untuk pertama kalinya, menciptakan persaingan ketat dengan Intel.
Tonggak sejarah ini berasal dari iterasi berkelanjutan AMD atas prosesor seri EPYC-nya. Platform Turin generasi ke-5, yang diluncurkan pada tahun 2024, meningkatkan jumlah inti hingga maksimum 192 inti, memberikan keuntungan signifikan dalam skenario inferensi AI. Bila dipasangkan dengan 8 GPU yang menjalankan model besar, EPYC 9575F frekuensi tinggi dapat meningkatkan kinerja sistem hingga 20%, yang secara drastis meningkatkan ROI mesin tunggal.
Arsitektur ARM Sedang Meningkat
:Di pasar server AI, CPU berbasis ARM melampaui penetrasi 25% untuk pertama kalinya, didorong oleh dua kasus penggunaan utama: platform GB200 NVIDIA menggunakan kluster CPU berbasis ARM untuk praproses data dan penjadwalan pelatihan terdistribusi; sementara itu, server ARM internal penyedia cloud—seperti AWS Graviton4 dan Google T2D—menawarkan kinerja biaya lebih dari 30% lebih baik daripada arsitektur x86 dalam inferensi AI, yang mendorong pengiriman mereka naik 300% dari tahun ke tahun.
ASIC Sedang Booming
:Untuk menangani peningkatan beban kerja AI dan mengurangi ketergantungan pada NVIDIA dan AMD, raksasa cloud global meningkatkan investasi dalam pengembangan ASIC. Pada tahun 2025, pengiriman chip AI Amazon AWS diproyeksikan tumbuh lebih dari 70%, sementara Google telah meluncurkan TPU v6 Trillium, yang berfokus pada efisiensi energi dan pengoptimalan untuk model skala besar.
Di Tiongkok, pemasok chip lokal (misalnya, Huawei Ascend, seri Cambricon Thinking Yuan) diharapkan menguasai 40% pasar pada tahun 2025—hampir menyamai pangsa chip impor—didukung oleh kebijakan nasional.
Revolusi Penyimpanan: Gelombang Dominasi dan Kustomisasi HBM
Evolusi Teknologi HBM dan Lanskap Pasar
:Memori bandwidth tinggi (HBM) telah menjadi komponen inti yang sangat diperlukan untuk server AI. SK Hynix, yang memanfaatkan keunggulan produksi massalnya dalam HBM3e 12/16-tumpukan, menguasai 64% pangsa pasar. HBM4 generasi berikutnya akan menghadirkan bandwidth lebih dari 2TB/s, dengan efisiensi energi 40% lebih baik dan ketahanan panas hampir 4% lebih baik dibandingkan dengan HBM3e.
Khususnya, pangsa HBM dalam total konsumsi daya server AI telah meningkat dari 12% beberapa tahun lalu menjadi 18%—yang menjadikan peningkatan efisiensinya penting untuk mengurangi penggunaan energi server secara keseluruhan.
HBM Kustom sebagai Masa Depan
:Seiring berkembangnya infrastruktur AI, HBM beralih dari produk standar ke kustomisasi khusus pelanggan. Choi Jun-yong, kepala bisnis HBM di SK Hynix, mencatat: “Produk HBM untuk keperluan umum tidak dapat sepenuhnya memenuhi kebutuhan khusus para produsen cip AI—pelanggan menunjukkan minat yang kuat terhadap HBM yang sangat disesuaikan.”
Ketidakseimbangan Penawaran-Permintaan dan Tren Harga
Pasar HBM menghadapi kekurangan pasokan yang parah. Pada Q1 2025, harga HBM naik 35% dari tahun ke tahun, dengan modul HBM3e 16GB melebihi $1.200.
SK Hynix memperkirakan ketatnya ini akan berlanjut hingga produksi massal HBM4 pada tahun 2026, dengan pasar memori AI diperkirakan tumbuh 30% setiap tahun selama enam tahun ke depan. Untuk memenuhi permintaan yang melonjak, SK Hynix meningkatkan produksi HBM sebesar 70% kuartal ke kuartal pada Q1 2025, melayani pesanan ribuan unit dari penyedia cloud seperti Oracle dan AWS.
Jaringan & Interkoneksi: Peningkatan Bandwidth Didorong oleh Skala Klaster
Meningkatnya Permintaan Bandwidth Jaringan
:Seiring bertambahnya ukuran klaster AI, permintaan untuk lebar pita interkoneksi jaringan tumbuh secara eksponensial. Pada Q1 2025, pasar NIC berkecepatan tinggi tumbuh 62% dari tahun ke tahun, menjadi salah satu komponen server yang tumbuh paling cepat.
Dalam klaster pelatihan AI yang sangat besar, teknologi RDMA (Remote Direct Memory Access) telah memangkas latensi jaringan hingga mikrodetik, sehingga meningkatkan efisiensi pelatihan terdistribusi secara signifikan.
Peningkatan Interkoneksi PCIe dan CXL
:Server AI generasi berikutnya secara luas mengadopsi PCIe 5.0, menawarkan kecepatan transfer data hingga 32GT/s. Seri EPYC 9005 AMD mendukung jalur PCIe Gen5 yang luas dan CXL 2.0, secara drastis meningkatkan pertukaran data antara CPU dan akselerator. Platform CPU generasi berikutnya dari Intel juga akan mendukung PCIe 6.0, yang selanjutnya mendorong kecepatan transfer data hingga 64GT/s.
Pergeseran Arsitektur Jaringan
:Untuk mendukung klaster AI ribuan GPU, solusi InfiniBand dan Ethernet berkecepatan tinggi terus berkembang. Switch InfiniBand Quantum-3 400G NVIDIA menghadirkan 400Gb/s per port, memangkas waktu pelatihan untuk kluster 10.000 GPU hingga beberapa minggu. Sementara itu, perangkat jaringan berpendingin cairan semakin populer, memecahkan masalah manajemen panas dalam pengaturan kepadatan tinggi.
Komponen Pendukung: Peningkatan PCB dan Iterasi Material
PCB Berkembang untuk Lapisan dan Frekuensi yang Lebih Tinggi
:PCB server AI bergerak menuju jumlah lapisan yang lebih tinggi dan desain frekuensi tinggi serta kecepatan tinggi. Server ASIC sering kali menggunakan desain berbasis rak, dengan PCB yang dimodelkan berdasarkan arsitektur Rack NVIDIA, dikirimkan sebagai Compute Tray + Switch Tray.
Karena penyedia cloud tidak memiliki NVLink, PCB Switch Tray mereka melampaui spesifikasi NVIDIA. Permintaan untuk PCB server ASIC diproyeksikan melonjak—dari kurang dari ¥10 miliar pada tahun 2024 menjadi hampir ¥60 miliar pada tahun 2027, yang mencakup lebih dari setengah total permintaan PCB komputasi.
Peningkatan Laminasi Berlapis Tembaga (CCL)
:CCL, material inti untuk PCB, terus berkembang melalui tingkatan M6, M7, M8, dan M9—dengan tingkatan yang lebih tinggi mengurangi kehilangan sinyal.
NVIDIA saat ini menggunakan M8 sebagai material utama di server AI-nya. Karena kebutuhan transmisi sinyal meningkat, M9 dan mutu yang lebih tinggi diperkirakan mulai digunakan pada tahun 2026, mendorong peningkatan material hulu seperti lembaran tembaga, kain kaca, dan resin.
Meningkatnya Permintaan Material Termal
:Seiring meningkatnya kepadatan daya server AI, pasar material manajemen termal sedang berkembang pesat. Server GB300 NVIDIA mengintegrasikan "desain modular berbasis slot + antarmuka logam cair + loop pendingin cair bertekanan tinggi," mengubah pendinginan cair dari bantuan periferal menjadi solusi inti tingkat chip.
Pasar pendingin cair diproyeksikan tumbuh lebih dari 100% pada tahun 2026 dan 50% pada tahun 2027, masing-masing mencapai ¥71,6 miliar dan ¥108,2 miliar.
Tantangan Pasar: Ketidakseimbangan Pasokan-Permintaan dan Beban Biaya
Pasar komponen server AI menghadapi tiga tantangan utama:
Menyebarkan Krisis Pengiriman
:Indeks waktu tunggu CPU/MCU melonjak 20% dalam tiga bulan, sementara indeks inventaris anjlok 41,6% dari Desember hingga Mei. Waktu tunggu FPGA bahkan lebih kritis—beberapa perangkat AMD UltraScale+ menghadapi waktu tunggu 52 minggu. Pergeseran geografis rantai pasokan (untuk menghindari tarif) dan perekrutan pemasok baru merupakan pendorong utama.
Kenaikan Harga yang Tinggi
:Di tengah kekurangan pasokan, harga komponen utama terus naik. Pada bulan Mei 2025, harga CPU/MCU melonjak 22,2% dari bulan ke bulan (sebagian besar disebabkan oleh kekurangan chip Intel), sementara harga FPGA naik 7,6%. Harga HBM naik 35% tahun-ke-tahun pada Q1 2025, dengan modul HBM3e 16GB melebihi $1.200.
Perubahan Struktur Biaya
: Semikonduktor kini menyumbang lebih dari 75% biaya server AI—naik dari 45% pada server tradisional—dengan GPU, HBM, dan chip interkoneksi berkecepatan tinggi yang menyumbang sebagian besarnya. Server AI kelas atas dengan 8 GPU NVIDIA H100 membuat HBM sendiri berharga lebih dari $10.000, yang mencakup 15-20% dari total biaya mesin.
Tren Masa Depan: Fragmentasi Ekosistem dan Komputasi Hijau
Fragmentasi Ekosistem Perangkat Keras
Ekosistem perangkat keras server AI global terbagi sepanjang tiga jalur: 1) Sistem GPU yang dipimpin oleh NVIDIA + produsen kontrak Taiwan (misalnya, GB200/GB300); 2) ASIC yang dikembangkan CSP + model ODM (misalnya, Google TPU, Amazon Trainium); 3) Alternatif lokal China (misalnya, Sugon).
TrendForce memperkirakan pasar server AI China akan melihat pemasok chip lokal menguasai 40% pada tahun 2025—hampir menyamai chip impor.
Munculnya Chip Inferensi Tepi
:Seiring meluasnya kasus penggunaan AI, pasar chip inferensi tepi tumbuh dengan cepat. Chip ini mengutamakan efisiensi energi dan latensi rendah, dengan aplikasi luas dalam manufaktur cerdas dan pengemudian otonom. Prosesor EPYC AMD unggul dalam inferensi tepi untuk model dengan parameter di bawah 10 miliar—EPYC 9965 ganda memberikan throughput inferensi dua kali lipat dari generasi sebelumnya.
Optimasi Sinergis Komputasi dan Penyimpanan
:Server AI generasi berikutnya akan lebih fokus pada koordinasi kemampuan komputasi dan penyimpanan. SK Hynix sedang mengembangkan solusi komputasi-memori yang terintegrasi, menanamkan fungsi komputasi ke dalam unit penyimpanan untuk mengurangi overhead pergerakan data. AMD juga memajukan penumpukan 3D, mengintegrasikan HBM dengan GPU/CPU dalam paket untuk meningkatkan bandwidth dan mengurangi penggunaan daya.
Keberlanjutan sebagai Metrik Inti
:Seiring meningkatnya permintaan komputasi AI, komputasi hijau telah menjadi fokus industri. Data AMD menunjukkan bahwa dalam klaster inferensi AI 1.024-node, server ARM memiliki PUE 0,3 lebih rendah daripada solusi x86, sehingga menghemat 3 juta kWh setiap tahunnya. Pendinginan cair juga semakin cepat—diproyeksikan akan melampaui penetrasi 45% di pusat data AI pada tahun 2027, naik 30 poin persentase dari tahun 2024.
Perangkat keras semakin menjadi medan pertempuran untuk persaingan AI—setiap peningkatan efisiensi chip membentuk kembali ekonomi daya komputasi. AMD menguasai setengah pangsa pasar CPU server, HBM4 besutan SK Hynix menghasilkan peningkatan efisiensi sebesar 40%, ASIC kustom tumbuh lebih dari 200% setiap tahunnya—angka-angka ini menunjukkan tiga tren dalam ekosistem perangkat keras server AI: dari keperluan umum ke kustom, dari tersentralisasi ke terdistribusi, dari yang mengutamakan kinerja ke keseimbangan efisiensi-biaya.
Selama tiga tahun ke depan, seiring GB300 memasuki produksi massal, HBM4 tersebar luas, dan pendinginan cair meningkat, "kinerja per watt" server AI akan menggantikan "daya komputasi puncak" sebagai metrik inti. Dalam evolusi perangkat keras ini, perusahaan yang pertama kali menerjemahkan inovasi tingkat chip menjadi peningkatan efisiensi tingkat sistem akan mendominasi era AI berikutnya.