免費活動報名 免費活動報名 郝旭烈/郝哥帶你打開兩本改變人生思維的關鍵之書

邊緣運算全解析:AI PC與AI手機的下一步?一篇看懂商機、挑戰與殺手級應用

曾子軒
user

曾子軒

2025-09-17

瀏覽數 2,450+

恩智浦(NXP)執行長西佛斯在今年的SEMICON上表示,邊緣運算不是簡報上的空想,而是現在進行式。曾子軒攝
恩智浦(NXP)執行長西佛斯在今年的SEMICON上表示,邊緣運算不是簡報上的空想,而是現在進行式。曾子軒攝
00:00
00:00

邊緣運算(Edge Computing)是什麼?為何微軟、蘋果、NVIDIA都重兵布局?《遠見》從資安、延遲、小模型(SLM)等角度,採訪多位專家,完整解析邊緣運算的商業潛力、硬體限制與未來趨勢,助您掌握下個科技浪潮。

邊緣運算是什麼?

所謂邊緣運算(edge computing),亦可稱作邊緣AI(edge AI)或裝置端AI(on-device AI),核心概念是將人工智慧的運算任務,從遙遠的雲端資料中心,轉移至更貼近使用者的終端裝置上執行。

此模式與雲端運算(cloud computing)形成鮮明對比。它強調在資料生成的網絡「邊緣」地帶即時處理,無需將數據遠程傳輸至雲端。

以大家熟悉的ChatGPT為例,使用者無論選擇GPT-4o或GPT-5模型進行對話,其背後的AI推論(inference)工作,全數在雲端伺服器完成。

相對地,企業端(B2B)應用可將AI模型直接部署於工業電腦或特定設備中,實現地端(on-premises)自主運作。而在消費端(B2C)市場,微軟、英特爾高舉的AI PC大旗,以及蘋果、三星等手機巨頭力推的AI手機,其核心賣點正是在裝置上直接運行AI功能。

從市場數據來看,邊緣運算在企業與消費市場均蘊藏巨大商機。市調機構IDC預測,全球邊緣運算解決方案支出將在2025年達到2610億美元,並於2028年攀升至3800億美元,年均複合成長率高達13.8%。

AI PC的賣點就是將AI下放到裝置端,消費者即便沒連上網,也能感受到AI帶來的威力。曾子軒攝

AI PC的賣點就是將AI下放到裝置端,消費者即便沒連上網,也能感受到AI帶來的威力。曾子軒攝

資策會也預估,具備超過40 TOPS(每秒兆次運算)算力的AI PC,以及內建AI晶片的智慧型手機,未來三年的市場滲透率將顯著提升。

聚焦智慧型手機市場,尼爾森愛科分析指出,裝置端AI是驅動今年換機潮的關鍵動力之一。其供應鏈與產業分析客戶成功總監李宗諺表示,2024年全球手機終端需求預估由11.64億台微幅成長至11.81億台,其中搭載AI處理器的手機出貨量將從去年的1.58億台(占比14%)大幅躍升至2.21億台(占比20%),成長趨勢明確。

事實上,剛才結束的SEMICON Taiwan 2025 國際半導體展上,恩智浦半導體執行長西佛斯(Kurt Sievers)便強調,AI不只在雲端上運行,倘若想要進入實體世界,便要透過邊緣應用才能實現。

邊緣運算為何重要?有哪些適合場景? 

既然雲端的ChatGPT、Claude已能順暢運行,為何還需要邊緣運算?原因在於,雲端運算並非無所不能。

陽明交通大學電機系特聘教授黃俊達分析,驅動AI從雲端走向地端的兩大核心動力,分別是降低回應延遲(latency),以及保障資訊安全及隱私。

低延遲需求:反應速度攸關成敗

就回應速度(response time)而言,一般使用者與Gemini或Claude進行文字互動時,或許不易察覺延遲。然而,一旦任務趨於複雜、消耗的符元(token,可理解為AI處理語言的基本單位)數量劇增,模型的回應效率便會出現明顯落差。

這裡的回應速度,不僅指和AI對話時等候多久,更泛指AI從接收指令或感知環境變化,到做出反應所需的全部時間。

例如,自動駕駛系統能否在毫秒間判斷路況、安防攝影機是否能即時識別異常行為、工業產線能否在生產過程中迅速找出瑕疵,在這些應用情境中,反應速度的快慢直接決定了產品的優劣。

在車用場景裡,AI對回覆時間有極高要求,才能應對突發狀況。曾子軒攝

在車用場景裡,AI對回覆時間有極高要求,才能應對突發狀況。曾子軒攝

黃俊達以今年4月ChatGPT免費開放圖片生成功能,引爆「吉卜力」風格頭像熱潮舉例,當時大量用戶湧入導致OpenAI伺服器不堪重負,執行長奧特曼(Sam Altman)甚至在社群媒體上坦承GPU算力耗盡,被迫限制免費用戶的生成額度。

可以想見,未來若小模型(SLM)成熟,搭配效能更強的AI晶片,消費者將能直接在個人電腦或手機上生成圖像,無需在螢幕前苦苦等候,待雲端資料中心處理完畢再回傳結果。

犀動智能創辦人沈書緯補充道,儘管雲端AI模型的回應速度也在持續改進,但若有應用場景選擇邊緣AI,通常意味著它對延遲極度敏感。「像是車用場景,就屬於『性命攸關』(critical)等級,」這與一般對話應用的即時性要求截然不同。

消費者可以選擇加價,享受高品質、低延遲的服務,但是對企業來說,雲端運算成本高昂,若預算不足而影響服務速度,帶來影響很大。因此,部分企業轉而尋求地端方案。

「如果建在地端,關在企業內部,就不會發生類似這樣的事情,」黃俊達解釋。

資安與隱私:企業不敢上雲

除了追求即時反應,對隱私的高度重視也是企業擁抱裝置端AI的關鍵原因。

例如,醫療機構、銀行及高科技製造業等企業,因其資料的機敏性,許多場域甚至禁止連接外部網路,對資料上雲本就設有嚴格規範。將AI運算留在邊緣裝置,正是出於資安考量。

前Google台灣董事總經理簡立峰分析,對於擁有敏感資料的企業而言,採用地端運算方案,不僅能避免資料上傳雲端伺服器的風險,更能安心地對微調模型,從而掌握更高的自主權。他認為,無論從動機或應用場景來看,企業級的邊緣運算發展已日趨成熟。

西佛斯總結,不用擔心資料傳輸頻寬(bandwith)受限、關鍵應用需要即時性(real-time)、要求能源效率(energy effieciency)、追求結合安全和資安的信任(trust),這四大原因是AI進入實體世界,例如汽車、工廠、農地等場景時,邊緣AI能夠發揮的優勢。

APMIC執行長吳柏翰表示,對企業來說,大廠開發的通用模型未必符合自家需求,需要額外客製化,而客製化後的模型可以在雲端,也能在地端上運作。曾子軒攝

APMIC執行長吳柏翰表示,對企業來說,大廠開發的通用模型未必符合自家需求,需要額外客製化,而客製化後的模型可以在雲端,也能在地端上運作。曾子軒攝

邊緣運算有何發展動能?有什麼應用案例? 

若要探究推動邊緣運算發展的催化劑,小語言模型(small language model,SLM)的進步,無疑是其中最值得關注的趨勢。

小語言模型:讓邊緣運算成為可能

包括微軟、Meta、Google等科技巨頭,以及Mistral、OpenAI等新創公司,在遵循「擴展定律」(scaling law)持續打造大模型的同時,也紛紛釋出參數規模介於數億至數十億之間的小型模型。

APMIC創辦人暨執行長、Google開發者專家(GDE)吳柏翰觀察,在阿里巴巴、NVIDIA、OpenAI及Google等巨頭競逐的開放模型(open weight model)戰場中,「有超過一半都在轉往SLM的發展」。

除了成本考量以外,吳柏翰引述NVIDIA今年發表的研究論文,表示企業應用語言模型時,因為缺乏內部知識,倘若想要部署AI Agent,「有70%都要小模型去優化,才能讓Agent使用。」

不管是透過蒸餾(distillation)或者剪枝(pruning)等技術,在減少模型參數量以後,雖然小模型的通用能力不及大模型,卻有辦法在特定領域展現出相當優異的表現。

黃俊達強調,小模型的蓬勃發展鼓舞邊緣運算,未來僅需筆電或手機等級的運算資源,便能順暢運行語言模型,為企業和消費者開啟了廣闊的應用前景。

「原來的大語言模型被要求上知天文,下知地理,因為訓練資料什麼都有,但可能沒有一樣真的專精。」黃俊達解釋,企業在實際應用中,可以開發針對特定領域(domain specific)的小模型,例如專為公部門客服或輔助醫生查詢病歷而設計的模型。

在消費端應用,也能看到筆電與手機品牌廠正積極推出AI新功能,例如微軟用於搜尋電腦操作紀錄的「回顧」(Recall)功能,或是蘋果遲未現身的Apple Intelligence,以及Google號稱相機鏡頭達到百倍變焦的Pixel 10

包含ChatGPT、微軟的Copilot都是在雲端上運作,但科技廠商也在努力開發裝置上的AI功能,希望得到消費者青睞。曾子軒攝

包含ChatGPT、微軟的Copilot都是在雲端上運作,但科技廠商也在努力開發裝置上的AI功能,希望得到消費者青睞。曾子軒攝

黃俊達點出了技術面的驅動力,而從產業應用角度,前Google台灣董事總經理簡立峰則看到了企業端更迫切的需求。

他指出,由於模型規模縮小、能力降級,所以要尋找專門(specialized)應用,例如企業有明確細分場景,就會需要客製化模型,這時小模型便有機會派上用場。

他舉例,台灣一家積極拓展海外市場的高科技製造商,就開發了一款能在手機上運行的SLM,並用產業專有知識和術語進行訓練,成為員工隨身的即時翻譯利器。

【免費報名】與郝哥來場高空導讀會,帶你打開兩本改變人生思維的關鍵之書

「只要硬體規格跟上,Edge端的應用場景遠比想像中豐富,各行各業都有需求。」簡立峰再以農業為例,他曾見過企業推出利用手機拍照來判斷作物病蟲害的應用,這同樣是在裝置端完成運算的典型案例。

擁有豐富產業AI導入經驗的光禾感知科技創辦人王友光補充,小模型的能力有其邊界,擅長問答、聊天,但在深度理解或推理方面仍有限。然而,以光禾曾在電視機上盒部署小模型的經驗來看,「殺雞不用牛刀,⋯⋯在地端的應用如果只是很簡單的檢索,就用不到太大的模型。」

由於使用者需求僅限於搜尋影片、調整音量等簡單操作,小模型已綽綽有餘。「我們生活上其實不是都需要全知全能。你只要有人幫你跑腿去買個便當而已。」

AI Agent:落地需要邊緣運算支援

除了小模型,各大軟體廠商和新創公司全力投入的AI Agent(AI代理),也有望成為邊緣運算的另一大推手。

為何AI Agent和邊緣運算有關?原因在於,AI Agent能自主拆解複雜任務並規劃執行步驟,這個過程本身就會消耗鉅量的符元。

以規劃旅遊為例,Anthropic的ClaudeGoogle的Gemini已有能力讀取螢幕內容,在使用者沒有零介入的情況下,完成搜尋景點、安排交通、預訂飯店餐廳等一系列任務。

Anthropic產品長克里格(Mike Kreiger)表示,去年Claude推出的電腦使用功能是打造AI Agent的基石。不過,此類任務就需要消耗大量token。曾子軒攝

Anthropic產品長克里格(Mike Kreiger)表示,去年Claude推出的電腦使用功能是打造AI Agent的基石。不過,此類任務就需要消耗大量token。曾子軒攝

然而,並非所有流程都能以API串接,許多環節仍需AI即時「觀看」螢幕上的資訊。黃俊達分析,若將所有運算過程都上傳至雲端,算力的消耗將極為驚人。

「我要一直把畫面串流到伺服器上,全台灣如果有一百萬人在做這件事情,就有一百萬筆上到伺服器,等於是同時看了一百萬部的YouTube(影片),大概沒有什麼網路可以撐住這件事情。」

因此,他預期未來的趨勢將是在地端先行處理資料,經過壓縮後再將關鍵資訊傳送到雲端。這正是AI Agent能夠驅動邊緣運算技術進步的核心原因。

邊緣運算發展有何限制? 

儘管邊緣運算前景備受看好,但無論企業或消費者,目前仍難以完全享受到其帶來的紅利,因為軟硬體層面仍有多重關卡尚待突破。

成本高:地端模型硬體花費是負擔

從硬體來看,成本是一大挑戰。

「絕大部分還是用雲端,地端的話還是比較貴。」王友光坦言,雖然地端方案可控性高,但並非所有客戶都有預算自建機房或採購高階顯示卡,高昂的初始建置成本正是雲端方案吸引人的地方。

吳柏翰也引述Chatbot Arena平台上開放模型的排名,前幾名如智譜AI的GLM-4.5、DeepSeek-R1或者DeepSeek-V3.1,企業倘若想要在自家部署這些模型,需要至少8張、每張要價百萬出頭的NVIDIA H200顯卡,考慮成本,「台灣的企業沒辦法很快導入。」

瑞士銀行(UBS)今年曾發表報告,當中提到幾個重點,包含企業導入AI時關注投資報酬(ROI)、企業不斷進行概念驗證(POC)但沒有後續,以及因為硬體原因導致部署AI成本很高。

「這些企業需要小模型,才能把工作做好,硬撐一個超大的模型成本太高、很難落地,」吳柏翰表示,再加上金融業、製造業的資安需求,才會有前述往小模型轉向的趨勢發生。

沈書緯也提到,犀動智能部署在旅宿業的智慧音箱中,真正在地端處理的僅有降噪和喚醒詞偵測等簡單任務,其餘皆在雲端完成,根本原因在於硬體性能無法承擔更複雜的工作。「1個Billion(的小模型)可能跑得動,但是沒辦法滿足客人需求。」

在同等價位下,現有硬體尚無法運行規模足夠大的模型。換言之,軟硬體各自發展還沒辦法互相契合。

在旅館房間內部署加進額外知識的智慧音箱後,客人遇到問題時可以用自然語言提問旅館和周邊環境相關問題。曾子軒攝

在旅館房間內部署加進額外知識的智慧音箱後,客人遇到問題時可以用自然語言提問旅館和周邊環境相關問題。曾子軒攝

軟硬體沒到位:模型不夠小、記憶體和頻寬有限

黃俊達分析,無論是AI PC或AI手機,記憶體容量不足、資料傳輸頻寬不夠、NPU算力相較於GPU仍有差距、以及運算時的功耗過高,這些都是實現裝置端AI理想的絆腳石。

他回憶起參與Google駐點科學家計畫時,與Google工程團隊的深入探討,「反正就是兩件事,一個就是增加硬體計算量的供給,另外一個就是減少需求量。」

正因目前運算效率不足,才需要更高價的硬體來滿足需求。若無法負擔硬體成本,便只能暫時依賴雲端運算。可以說,軟硬體整合不夠,再加上現階段硬體成本過高,是問題的一體兩面。

黃俊達表示,解決之道必須雙管齊下:一方面要持續改良硬體設計以加速運算,另一方面則需不斷改進深度學習演算法以適應硬體限制。「(模型開發商)如果可以把模型大小砍成四分之一、五分之一,我再把硬體的效率往上提兩倍、三倍,乘起來最後就能夠讓這件事情在地端成真。」

當軟硬體能完美協作時,普羅大眾都能享受到AI便利的理想生活,也就不遠了。

Google和蘋果分別在Pixel和iPhone上推出功能相近的AI功能,且同樣採用雲端模型與裝置端小模型的分工架構。曾子軒攝。

Google和蘋果分別在Pixel和iPhone上推出功能相近的AI功能,且同樣採用雲端模型與裝置端小模型的分工架構。曾子軒攝。

如何決定選擇邊緣運算,還是雲端運算? 

在邊緣運算需求浮現、但軟硬體生態尚未完全成熟的過渡期,企業該如何抉擇?是擁抱雲端、堅守地端,還是採用混合式AI(Hybrid AI)方案?

王友光建議,企業決策者可從任務複雜度與同時服務人數(concurrent users)這兩個指標著手。前者用於估算完成任務時,單位時間內大致需要的符元數量,再乘以後者,便能推算出運行地端方案所需的硬體規格。若預算有限,上雲仍是務實的選擇。

黃俊達則認為,儘管混合式AI的概念已相當普及,但實務上受限於地端算力不足,他觀察到的現況是:「地端能算的就丟到地端算,地端不能算的你就只能丟到雲端,目前沒有其他解法。」

事實上,即使在雲端運算,只要任務設計得當,使用者也幾乎感受不到延遲。以ChatGPT為例,每次問答的資料量約數百位元組,傳輸到伺服器再接收回覆,幾乎在轉瞬之間完成,「考慮網路傳輸、頻寬需求,這個切點就切得非常好,」黃俊達說道。

討論AI PC時,普遍會以TOPS(Tera Operations Per Second,處理器每秒能進行幾兆次操作)衡量算力。曾子軒攝

討論AI PC時,普遍會以TOPS(Tera Operations Per Second,處理器每秒能進行幾兆次操作)衡量算力。曾子軒攝

邊緣運算的未來與潛在問題? 

展望未來,邊緣運算的發展路徑上,企業級應用普及的速度預期將快於消費級市場。

邊緣AI好處不夠:消費者無感

由於企業面臨更多隱私保護和離線操作的需求,其採用邊緣運算的動機更為強烈。然而,對於一般消費者而言,裝置端AI的優勢卻不那麼顯而易見。

簡立峰直言,若要說服消費者支付額外費用購買AI PC或AI手機,就必須提供雲端運算所沒有的獨特回報。他認為,雲端模型不僅更強大,能力也更通用,對於常見的對話任務,一般民眾並無迫切的邊緣AI需求。「行銷上會講比較個人化、資料有隱私,但是消費者真的在乎嗎?」

深入探究,可能只有自動駕駛等極少數場景對邊緣AI有剛性需求。在殺手級應用缺席的情況下,消費者自然無感。

再以近期最吸睛的生成式AI功能來看,圖像和影片生成無疑最引人注目。但這類任務對算力要求極高,一般規格的裝置根本無法負擔,唯有雲端才能提供足夠的火力。「什麼東西一定要在地端用你的晶片處理,而不是雲端?」簡立峰認為,答案並不是太多。

簡立峰指出,消費者裝置上還很難實現多模態應用,企業端普及邊緣運算會比消費者端快上不少。曾子軒攝

簡立峰指出,消費者裝置上還很難實現多模態應用,企業端普及邊緣運算會比消費者端快上不少。曾子軒攝

突破點:等待AI殺手級應用出現

當然,這不代表消費性電子產品毫無機會。

簡立峰判斷,未來若有業者開發出極具吸引力的AI應用,且該應用在雲端運行會消耗巨額成本時,業者便會產生將部分運算轉移至地端的動機,目的就是「希望邊緣端能幫忙省錢。」

因此,最終的突破口,仍有待AI手機和筆電的開發者們找到真正契合的應用場景,例如在遊戲中嵌入更智慧的AI NPC,或讓相機的AI功能再次進化,才有可能真正點燃消費者端的邊緣運算市場。

邊緣運算的未來,不在於取代雲端,而在於與其共舞。對企業而言,這是一場成本、效率與資安的精密權衡;對消費者來說,則還在等待殺手級應用出現。這場從雲端到地表的AI革命,就看誰能最快弭平軟硬體的鴻溝、真正解決使用者的痛點,便能在這片新藍海中,搶得先機。

你可能也喜歡

AI教父黃仁勳的創業領導成功之道
數位專題

AI教父黃仁勳的創業領導成功之道

AI晶片巨頭輝達(NVIDIA)執行長黃仁勳勢不可擋!1993年創立輝達以來,公司市值近來創下歷史新高,黃仁勳身價更是破千億美元榮登全球前15大富豪。隨著Computex 2024登場,他帶來的A

請往下繼續閱讀

登入網站會員

享受更多個人化的會員服務