輝達(NVIDIA)執行長黃仁勳在3月16日GPU Technology Conference談及生成式 AI 與資料中心時,拋出了一個饒富趣味的「養龍蝦」隱喻。他提到,購買昂貴的 GPU 就像買了一隻高品質的龍蝦,但如果你不給牠充足的食物(電力)或適宜的環境(冷卻),這項高昂的投資會付諸流水。
這番話不僅點出了 AI 算力競賽的現實,更直指了未來能源管理的痛點:當全世界爭相建置一座座「AI 工廠」來養這些算力龍蝦時,我們的電力系統是否有足夠的韌性與彈性,來支撐這些「吃電大戶」?
一、龍蝦的飼料:當「電力」成為算力的成本
從能源管理的視角,若我們僅以傳統擴建電廠、拉高輸配電容量「表前(Front-of-the-Meter)」思維來應對,恐怕難以追上 AI 演進與擴建的速度。
根本解決之道,必須回到電力用戶本身表後(Behind-the-Meter)的整合式設計邏輯(integrative design),讓 AI 工廠轉化為具備韌性的電力調度資源。因為,支撐這些精密「龍蝦」的基礎設施與彈性負載,其實正是維持電網品質的絕佳資源。
二、虛擬電廠成為AI 工廠的「智慧飼養者」
AI 算力的特性與傳統工業負載不同。其模型訓練(Training)雖耗電,但因操作具備高度靈活性與可調度性,能透過虛擬電廠(Virtual Power Plant, VPP)的資通訊技術平台,鏈結分散式電源、彈性負載、AI工廠等,整合設計出等同於實體尖峰電廠,而廣受當前歐美澳先進國重視的以下理由:
1. 算力負載的靈活轉移:透過 VPP 平台技術對接,AI 工廠可與電網營運商(如台電2022年11月正式啟動的「電力交易平台」)直接連動。在用電尖峰電價昂貴或供電吃緊時,自動調降非緊急的訓練模型功耗,是一種極具彈性的「需量反應(Demand Response)」負載抑低與移轉用電時段。
2. 分散式能源資源的協同效應:許多 AI 工廠均配置大量儲能系統(BESS)與太陽能光電自用綠電。透過 VPP 平台的整合運作,這些資源都可順勢參與電力交易平台,能獲取售電的「業外」營收,不再只是「業內」的支出成本。
3. 參與電力調頻備轉服務: AI 工廠內的 GPU 叢集與 UPS 儲能備用電源系統,反應速度達到毫秒等級。當電網頻率因大型機組跳脫而劇烈變動時,VPP 平台可指令 AI 工廠迅速切換負載,提供比傳統火力機組更精準快捷的調頻服務,能有效穩定電網,創造雙贏。
三、從「買越多省越多」到「用越精省越多」
黃仁勳常說「The more you buy, the more you save」,強調加速運算帶來的效率提升。而對AI工廠的用電負載來說,則是「The more you integrate, the more you save」。
此外,在「氣冷」模式已逼近物理極限下,既然單一機櫃的功耗已從傳統伺服器大約15kW,推升至100kW、未來甚至上看500kW到1MW!從整合設計觀點,「液冷」應成為標準配備的基礎設施,以確保系統的穩定性與能源使用效率(PUE)。
總之,算力即電力;電力即國力。若AI工廠想要更多龍蝦肉的美味(算力的產出),就要重視養殖環境的維護(電力與冷卻系統的成本永續)。透過虛擬電廠與電力交易平台的整合設計與應用,我們在擁抱 AI 算力的同時,也能兼顧電網穩定,維護國家社會整體的能源韌性。這不但是電力運營模式的升級,更是觀念與制度的翻轉,值得公私部門利害關係人及早關注。
本文章反映作者意見,不代表《遠見》立場
(作者許志義為中華大學特聘教授、前台電獨董)