液冷散熱再度成為市場關注熱點!尤其當輝達執行長黃仁勳在CES的一席話,宣告新一代GPU機櫃架構Vera Rubin將在2026年量產,並將全面採用100%液冷架構,帶動散熱股歡欣鼓舞。在伺服器功耗需求持續攀升下,液冷的技術將如何演進?黃仁勳所說的No Chiller又是什麼意思?傳統的水冷機到底還需要嗎?《遠見》一文拆解。
隨著資料中心功耗持續上升,液冷散熱也成為市場關注的重要技術。輝達執行長黃仁勳在2026年1月的CES演講中重磅宣布,新一代GPU架構Vera Rubin將在今年全面進入量產。
根據調研機構資料,Vera Rubin機櫃的熱設計功耗(TDP)預計突破200kW,而旗艦級的Rubin Ultra更是上看1000kW(1MW)。相比上一代Blackwell架構,GB200 NVL72整機櫃的TDP約落在120kW─140kW,這意味著,Rubin世代對於散熱的需求幾乎翻倍成長。
隨著晶片算力呈現指數級增長,伴隨而來的是節節攀升的熱密度挑戰。黃仁勳也明確表示,Vera Rubin機櫃已100%採用液冷設計,這宣告了氣冷時代在高階AI伺服器領域的終結。到底技術如何改變?台廠液冷概念股成員不同了嗎?以下完整拆解。
延伸閱讀:GB200帶「液冷散熱」革命,概念股全拆解!技術竟不只一種?
為何氣冷吹不動,液冷成AI關鍵救星?
1. 突破氣冷的「物理天花板」
為什麼風扇吹不動了?調研機構Trend Force指出,傳統氣冷散熱受限於空氣的物理特性,即便將風扇轉速拉到極限,也無法在伺服器狹窄的空間內帶走如此高密度的廢熱,而且噪音、占地都成問題。
從物理學角度來看,液體的熱容量(Heat Capacity)大約是空氣的四倍,熱導率(Thermal Conductivity)約為空氣的24倍。當單機櫃功耗突破100kW大關,液冷不再是選配,而是維持伺服器穩定運行的剛需。
2. 能源使用效率考量
除了散熱效能,營運成本與環保法規也是推手。全球資料中心早已成為吃電巨獸,電力消耗已佔全球用電量近3%。微軟(Microsoft)、Google、亞馬遜(AWS)等雲端服務供應商(CSP)皆面臨嚴苛的碳中和承諾。
而採用液冷技術,可將資料中心的PUE(能源使用效率,數值愈接近1愈理想)從傳統氣冷的1.5以上,壓低至1.1甚至1.05。PwC研究指出,電力價格波動較大的地區,全面導入液冷可降低30-40%的營運成本,具備極高的財務誘因。
滲透率加速!2026年「液冷放量」
根據調研機構TrendForce數據,AI伺服器液冷散熱市場正在經歷「J曲線」般的爆發性成長。
- 2024年:試水溫期。液冷滲透率僅約14%,多數應用仍屬於實驗性質POC或僅限於超高階運算試點。
- 2025年:起步期。隨著NVIDIA GB200開始出貨,CSP大廠也紛紛開始建置液冷基礎設施,滲透率提升至32%。
- 2026年:放量元年。這是關鍵轉折點。隨著Rubin世代量產,全球AI伺服器出貨預計年增20%以上,其中液冷滲透率將跳升至47%。
調研機構DIGITIMES數據進一步指出,2026年下半年的主流平台(如GB300、MI450等)都將採用L2L(液對液)或L2A(液對氣)方案。這意味著,市場上近乎一半的高階AI伺服器都已改採水冷解決方案。預估到了2028年,液冷散熱的滲透率將穩超六成,成為絕對主流。
黃仁勳喊「免額外水冷機」?拆解背後的省錢真相
在2026年CES大會上,黃仁勳在演講中指出,儘管Vera Rubin的效能大幅躍升,整體功耗約為Blackwell世代的兩倍,但可用45°C的溫水進行機櫃的散熱。
「這套系統進來的水溫就是45°C,所以資料中心完全不需要水冷機(no water chillers are necessary)。」黃仁勳指出,這幾乎是在使用「熱水」幫超級電腦散熱,「這代表我們大約能為全球資料中心節省6%的電力,影響非常大。」
黃仁勳這段話有幾個重點,包括45°C溫水散熱、免裝水冷機,以及可以節省全球資料中心能源消耗的6%。這也引起討論,為何可以使用溫水散熱?而當主導主流資料中心架構定義的輝達喊出No Chilller,將對供應將產生什麼影響?
1. 45°C溫水散熱
首先,晶片運作溫度約70°C─80°C,傳統氣冷或早期液冷,需要在機櫃外部的水冷機先將水降溫至10°C─20°C才能有效散熱。但透過更高效的「晶片直接液冷」(Direct─to─Chip,DLC/D2C)散熱技術,以及Rubin世代即將採用的CPO(共封裝光學)技術,一方面提高解熱能力,一方面下降熱能產生,便可以如黃仁勳演講所說,使用45°C溫水替晶片散熱。
DIGITIMES分析師邱欣蕙認為,「No Chiller」在現階段並非指資料中心完全不需要冷卻系統,而是在新的架構下,「不需要為了新增的高密度AI機櫃,再額外擴增大型Chiller。」
背後關鍵在於,傳統資料中心倚賴Chiller製造冰水,這也是PUE居高不下的主因。
「若不再把降溫重任全壓在外部Chiller,而是移轉至機櫃內部的CDU(冷卻液分配裝置),」邱欣蕙補充,透過改以更靠近熱源的液冷循環來分擔解熱任務,「資料中心整體冷卻能耗就有機會下降,PUE也將改善。」
這也意味著資金流向的轉移,當省下擴建機房外部冷卻機與機房的資本支出,資源將有機會轉投入到機櫃與近端液冷基礎設施,如泵浦循環、熱交換等。這也讓機櫃內的散熱關鍵零組件的重要性與價值同步上升。
2. CPO減少熱功耗
知名半導體分析師陸行之在報告中補充了另一個關鍵視角:CPO技術的導入。正如黃仁勳在演講中演示,Rubin平台將採用CPO技術取代傳統的可插拔光收發器,並大幅減少GPU與Switch之間的銅線互聯,便可降低傳輸熱損。
也就是說,CPO將光學損耗從~22dB降至~4dB,大幅降低了電氣傳輸過程中的廢熱產生。因為傳輸介面產生的熱量減少,系統不再需要嚴格的「低溫冷卻水」,這也為45°C的溫水冷卻提供了技術可行性。
3. CDU更關鍵
另一方面,如果說冷板是貼在晶片上的「吸熱貼」,那CDU就是整個液冷系統的「心臟」與「大腦」。CDU需根據需求即時、動態調整流量、壓力與溫度,讓流經晶片端的液體與連接資料中心外部的冷卻塔塔與冷水主機的液體進行熱交換,但同時確保水流不會互相混合。
CDU通常是一台獨立的機櫃,或者嵌入在機櫃底部,體積約1~1.5個機櫃大,包含泵浦、過濾器、感測器、控制器等元件來確保循環液乾淨並受控。
而隨著Chiller的散熱任務被分流,即資料中心外部冷卻設施的擴建需求降低,CDU的角色更趨關鍵。機櫃端的熱交換效率、流量與溫度控制能力便成為能否支撐高功率AI機櫃的核心。
邱欣蕙指出:「在此趨勢下,CDU正在承擔更多原本偏向設施端的散熱職能。」而目前常見的Sidecar(機櫃側邊冷卻裝置)也可視為CDU的一種形式,透過加強風扇牆等設計,提升機櫃端的換熱能力,讓系統能夠在較高的供水溫度(如45°C溫水)狀況下,依然可以穩定運作。
液冷技術發展路徑整理,跟水冷有何不同?
隨著晶片熱密度提升,散熱技術也持續演進,從氣冷到液冷,液冷自身也有更細部的技術路徑。
第一路徑:冷板式液冷(Cold Plate/DLC)
這是目前最成熟、滲透率最高的技術。原理類似「退熱貼」,將銅製水冷板貼附在GPU、CPU上。而冷板散熱的又分為兩種:
- 液對氣(L2A):機櫃內液冷,透過機櫃背後的散熱背門(RDHx)將熱排到空氣中。優點是不用大改機房水路,適合舊機房改裝。
- 液對液(L2L):透過CDU進行液體間的熱交換,效率最高。這是GB200NVL72的主流方案,也是2026年的主戰場。

冷板升級:微通道冷板與蓋板
隨著Rubin單晶片功耗上看數千瓦,傳統銅製冷板可能也將不敷使用,業界於是也正積極推動冷板升級,朝向「微通道」邁進。
微通道冷板(Micro-channel Cold Plate, MCCP):
透過在冷板內部加工出微米級的通道,能大幅增加液體與發熱源的接觸表面積,縮短熱傳導距離。然而,這也帶來了新的挑戰。
邱欣蕙指出,MCCP、MCL技術中可能使用到含鎳的化學金屬,當製程或材料系統涉及不同金屬層(例如銅基材與含鎳鍍層等)時,需透過適當的鍍層設計,來降低界面反應與長期可靠度風險。
也就是說,為了降低腐蝕風險、確保異材料之間的長期相容性,冷板製程會從過去的純銅,轉變為「鍍金」為標配。
此外,另一種可能性則是在在同樣的微通道空間下,提高帶走的熱能。例如,近來討論熱度上升的「兩相/雙相(Two─Phase)無水液冷」,台廠供應鏈中,如鴻海、仁寶,也和DLC液冷解決方案大廠Zutacore合作,推出冷板的升級版方案。
透過沸點低的介電液或冷媒,讓液體因沸騰而汽化,產生「相變」的過程中帶走潛熱,散熱效率又比單相液冷更高。不過,目前單相液冷仍為主流,廠商雖已推出兩相液冷的解決方案,但仍處於概念驗證階段。
微通道蓋板(Micro-channel Lid. MCL):
這是更進一步的的技術,也就是直接在晶片封裝的蓋板(Lid)甚至晶片背面的矽基材上蝕刻出水道。
透過此技術,冷卻液與發熱點的距離縮短至微米級,熱阻大幅降低外,在寸土寸金的資料中心中,也可進一步節省空間。Trend Force分析師邱珮雯推測,健策正開發封裝級別的MCL散熱技術,預計最快2027年與 Rubin Ultra 一起推出。
甚至,業界推測,在「晶片級封裝散熱」之後,未來走向可能往「無冷板化」邁進,也就是冷卻液直接流過晶片內部。
第二路徑:浸沒式液冷(Immersion Cooling)
與冷板的液冷模式並行的路徑,還有一條是「浸沒式冷卻」,便是將整台伺服器「泡」在絕緣液體中。
邱珮雯分析,主要是介電液目前仍尚未有明確的規格化,且廠商也對於伺服器需長時間浸泡在液體中多有顧慮,包括侵蝕、脆化等長時間使用下的變化,目前耐用性仍有待觀察。
畢竟若有任一零組件損壞,恐涉及保固歸屬,而且維修所需時間、維修成本目前也比DLC模式更加麻煩。再加上當前浸沒式的介電液還恐受到環保法規限制,也讓CSP大廠態度仍偏保守,預計2026年仍只聞樓梯響,難以撼動「冷板式」直接液冷的主流地位。
液冷概念股有誰?新一代台廠「液冷聯盟」
2026年隨著液冷在高階伺服器的滲透率超過半數,輝達Rubin世代宣告100%採用液冷架構,以及「不再新增更多水冷機」趨勢確立,資料中心內部的散熱系統價值鏈將產生轉變,也帶動台灣液冷散熱供應鏈新的機會。
除了零組件廠,鴻海、廣達、緯穎、仁寶、技嘉等ODM廠也在積極強化散熱能力。尤其隨著液冷散熱的需求逐漸往晶片端靠近,散熱廠也需更進一步與系統商協作。
現階段液冷技術仍在快速演進,ODM廠需要高度倚賴散熱模組廠的專業,雖說同時也有意推出液冷散熱解決方案,展現系統整合實力以提高客戶黏著度,但在2026年,雙方仍將維持「魚幫水、水幫魚」的緊密合作關係。
2026年不只是AI晶片的換代年,更是散熱技術邁向液冷時代的分水嶺。從GB200到Vera Rubin,從氣冷到直接液冷,再到未來的微流體技術,這場散熱革命有望為台灣供應鏈帶來前所未有的機遇。