在人工智慧(AI)技術高速擴張的背景下,一種認為「中央處理器(CPU)被低估」的觀點正在引發討論。隨著多數 AI 應用仰賴圖形處理器(GPU)架構開發,導致部分應用出現效能與資源浪費的現象。根據 Cointelegraph 於 17 日(當地時間)的報導,NodeOps Network 共同創辦人暨執行長納曼·卡布拉(Naman Kabra)發表評論指出,這種「只重 GPU」的思維,正在成為 AI 基礎設施拓展的主要障礙。
目前,包括 OpenAI、Google、Meta 等大型科技公司投入巨額資金建構 GPU 叢集,因為 GPU 能高效處理大規模的平行計算,適用於訓練聊天機器人與影像識別等高性能 AI 任務。然而,卡布拉指出,「僅信賴 GPU 的固定觀念本身就是問題」,他強調尤其在 AI 模型「推論執行階段」,CPU 同樣具備高效表現。
CPU 廣泛部署於多數裝置之中,面對需要邏輯推理與彈性決策的應用場景更具有優勢。像是自動化代理人進行資料蒐集、編碼與規劃等任務,自然更傾向採用 CPU 架構處理。此外,有專家指出,在即時回應非必要的環境下,即便是深度學習模型的推論工作,也可以透過 CPU 有效執行。
基於這樣的論點,卡布拉提出一項具體解決方案──發展「去中心化物理基礎設施網路(DePIN;Decentralized Physical Infrastructure Network)」。透過結合全球用戶閒置的 CPU 運算能力,人們能組建分散式 AI 計算網路,進一步擺脫對雲端供應商的依賴,進入一種「運算共享經濟」模式。這類體系具備降低延遲、強化隱私性等優點。
卡布拉呼籲,與其花費數十億美元購買 GPU,「不如認真思考如何再利用現有的 CPU 資源」。他補充表示,目前全球仍有成百上千萬台 CPU 處於閒置狀態,「我們需要改變對資源使用的思維模式」。
隨著 AI 需求預期在未來幾年持續爆炸性成長,市場對於高成本、高密度架構的 GPU 解法產生質疑,分散式路線逐漸浮現為更具永續性的替代方案。尤其在傳統資料中心擴張逐漸遇到瓶頸的當下,DePIN 等模式提供了新的出路。
總結而言,卡布拉認為,AI 基礎設施擴展的瓶頸不在於硬體短缺,而是「思維受限」。他強調:「GPU固然重要,但其實 CPU 就在我們身邊,只是我們尚未加以發揮。」這番話展現出對下一代 AI 生態的想像:與其仰賴新技術的堆疊,不如重新認識與整合「現有資源」,開發更具彈性與效率的運算模式。
關鍵詞:CPU、GPU、去中心化基礎設施(DePIN)、AI 運算、分散式網路
留言 0