跳至主要內容

AI伺服器解析:架構升級、成本結構與產業競爭門檻 | 三建產業資訊

技術文章

AI伺服器解析:架構升級、成本結構與產業競爭門檻

AI伺服器解析:架構升級、成本結構與產業競爭門檻

人工智慧(AI)技術快速擴展,對於AI伺服器的需求也日益提升。作為雲端資料中心的核心運算設備,AI伺服器相對於傳統伺服器內部運算架構更為複雜,關鍵元件包含圖形處理器(GPU)、中央處理器(CPU)以及AI加速器(如TPU、ASIC、FPGA等),且須搭配高度整合技術,才能同時滿足高算力、高功率要求以及高傳輸速度三大需求。

核心硬體架構的差異

在傳統伺服器中,CPU是主角,通常搭載1至2顆,主要執行一般業務應用、資料存取與伺服器虛擬化等工作;一般AI伺服器一樣搭載2顆CPU,以及1至4顆透過PCIe連接的GPU,負責接收AI模型指令並產出結果,例如語音轉文字、簡單的影像辨識等中小規模模型運算。

項目

傳統伺服器

一般AI伺服器

高階AI伺服器

BOM成本重心

CPU、記憶體、硬碟

CPU、1-4顆PCIe GPU

8顆GPU與GPU基板(如NVIDIA HGX Rubin NVL8)

主要記憶體

DDR5

高容量DDR5

HBM3e/HBM4(整合於GPU)

GPU成本佔比

0%

約30%-50%

70%-85%(含HBM成本)

散熱成本

氣冷

進階氣冷

液冷系統

執行任務

業務應用、資料存取、虛擬化

AI推論(語音轉文字、影像辨識)

大模組訓練(LLM Training)

平均單價(ASP)

約5,000-15,000 USD

約25,000-50,000 USD

300,000-500,000 USD

相較於前面兩者,高階AI伺服器的核心在於「模組化的高度整合」。透過先進封裝技術(CoWoS),將GPU與HBM緊密封裝於同一算力模組中,讓記憶體不再是獨立零組件,而是算力架構的一部分;系統再透過高速互連技術,將多顆GPU模組整合成高密度運算平台。

透過此一設計,大幅提升GPU與記憶體,以及GPU之間的資料交換效率,得以支撐數兆參數等級的大模型訓練,但先進封裝良率、系統整合複雜度,加上高單價的HBM,也使高階AI伺服器價格居高不下。

圖:NVIDIA新一代AI系統。(NVIDIA官網)

產業面與未來成長走向

根據產業數據,高階AI伺服器的平均單價(ASP)已達30萬至50萬美元,遠高於傳統伺服器的1.5萬美元。其中,GPU成本佔比70%-85%,隨著高階產品問世(如NVIDIA新一代AI系統),單機系統功率使用量達24 kW,也帶動液冷散熱等系統成本大幅增加。

在關鍵零組件供應集中(如HBM4、先進封裝產能)的情況下,能取得穩定算力模組資源、具備大型客戶交付經驗的廠商,更容易在市場取得競爭優勢。

隨著大模型規模持續擴張與AI應用快速普及,資料中心將更加依賴高階AI伺服器的高算力與高密度運算能力。傳統伺服器處理通用運算與企業IT負載,高階AI伺服器則專注於模型訓練與推論任務。未來的競爭焦點不再只是出貨規模,而是誰能在高門檻市場中,提供兼具穩定供貨、成本控制與效能優勢的整合方案。