Back to top
  • 공유 分享
  • 인쇄 列印
  • 글자크기 字體大小
已複製網址

卡爾達諾創辦人 Hoskinson:加密技術可讓 Google Cloud、Azure「看不到資料」,但業界警告雲端依賴仍是去中心化風險

卡爾達諾創辦人 Hoskinson:加密技術可讓 Google Cloud、Azure「看不到資料」,但業界警告雲端依賴仍是去中心化風險 / Tokenpost

卡爾達諾創辦人 Charles Hoskinson(查爾斯・霍斯金森)近日在「去中心化」與雲端依賴的爭論中成為焦點。他在香港舉行的 Consensus 大會上主張,像 Google Cloud、微軟(MSFT)的 Azure 這類「超大規模雲端」並非區塊鏈生態的威脅,理由是只要用進階加密技術讓雲端「看不到資料」,就難以「控制系統」。不過,業界反方觀點同樣強硬:加密能隱藏資料,卻不一定能消除基礎設施層面的權力。

根據現場公開談話內容,霍斯金森在 2 月的 Consensus Hong Kong 表示,大型區塊鏈專案採用超大規模雲端基礎設施幾乎無可避免,外界也不必過度擔心「單一故障點」(SPOF)。他的論述主軸是:透過「MPC」多方運算將私鑰等關鍵機密分散保管、用「機密運算」(Confidential Computing)在執行過程中遮蔽使用中的資料,再搭配更進階的加密手段降低攻擊面;在這個條件下,雲端供應商即使提供主機,也難以取得系統控制權。

但問題在於,「降低暴露」不等於消除「依賴」。以「MPC」為例,確實能避免單點私鑰外洩造成全面性失守,並削弱對單一保管者的信任需求;然而,風險會轉移到另一個層面:參與節點之間的通訊安全、運維協調、治理流程與協定實作正確性,都可能變成新的核心脆弱點。換句話說,單一故障點未必消失,而是讓信任與風險的表面積以「更分散、但更廣」的方式擴大。

「機密運算」同樣如此,尤其是 TEE(可信任執行環境)。TEE 可讓資料在運行中保持加密,使託管方難以直接讀取內容,但它建立在硬體與韌體的假設之上:微架構隔離是否完善、韌體完整性是否可靠、實作是否存在缺陷,都會左右安全邊界。另一方面,側信道攻擊等結構性弱點也屢有研究與事件被揭露。這意味著它或許能讓邊界更清晰,卻離「絕對安全」仍有距離。

更具爭議的是,即便「MPC」與「TEE」讓雲端供應商看不到資料,許多系統仍運行在同一批超大規模雲端的算力、網路、地區節點與硬體存取權限之上。基礎設施提供者若掌握頻寬、區域可用性與設備層管理權,就可能在「基礎設施層」保有槓桿,例如限流、服務中斷、政策介入、區域退場等。這些變數往往不是單靠加密就能完全抵禦。

霍斯金森也在同場強調:「沒有任何 L1 能承擔全球系統的運算需求」,並以資料中心是以數兆美元資本堆疊的現實作為推論,認為依靠超大規模雲端是合理方向。從 L1 的定位來看,這種說法有其基礎:L1 的核心通常是共識、狀態轉移驗證與資料可用性,而不是直接拿來跑 AI 訓練、企業級分析管線或高頻交易引擎。

然而,近年加密基礎設施的演進焦點,逐漸從「運算在哪裡發生」轉向「結果能否被驗證」。大量專案採取「鏈下運算、鏈上證明」:把重運算移出鏈外,將結果以可驗證方式回傳鏈上完成結算與驗證。「Rollup」、「零知識」(Zero-Knowledge) 系統與可驗證運算網路,都是在這個前提下成長。於是爭點可能不再是「L1 能不能做全球運算」,而是:支撐鏈下運算與儲存的基礎設施「由誰控制」。如果核心路徑仍集中在少數雲端供應商,系統可能繼承中心化的失效模式:表面上結算去中心化,但產生有效狀態轉移的流程卻可能被少數業者掐住。

這也引出另一層討論:加密技術的「中立性」與參與門檻的「中立性」並不相同。加密協定力求規則難以被任意更動、後門不易藏匿、以數學保證公平;但協定終究要在現實硬體與網路上運作。硬體供應、託管與部署若高度集中,誰能負擔成本、誰能穩定接入、誰容易被排除,仍可能由物理層與經濟結構決定。這也是為何有人主張:要讓「中立」在壓力情境下依然成立,還需要硬體與基礎設施的所有權更分散,而不只是協定設計漂亮。

在「可驗證運算」與「零知識證明」等領域,另一個對超大規模雲端不利的因素是效率結構。超大規模雲端擅長處理多樣化工作負載,強於通用性、合規、彈性擴展與企業級管理,但這些優點同時也會形成成本層。相較之下,證明生成這種工作負載高度決定性、運算密度高、對記憶體頻寬與管線效率敏感,更適合走「特化」路線:從硬體、Prover 軟體、電路設計到聚合邏輯的垂直整合,可能在「每美元證明量」「每瓦證明量」「每單位延遲證明量」上累積出結構性優勢。價格機制也不同:雲端定價要覆蓋企業利潤與需求波動;而以協定激勵對齊的網路,往往能用不同方式攤提硬體成本,並以高稼動率去最佳化效能。競爭軸線因此可能從「誰規模更大」轉為「在特定工作負載下誰更有效率」。

綜合以上,問題可能不在於超大規模雲端是不是敵人,而在於如何管理「依賴性」。較務實的路線是把超大規模雲端當作「加速器」:用於突發容量、跨區備援、邊緣部署與短期擴張;但若把關鍵功能長期錨定在少數供應商,一旦遇到政策變動、區域故障、服務退場或監管壓力,整體系統就可能被拉著一起波動。更理想的設計是:即使某個雲端區域失效或供應商退出市場,網路仍能維持核心結算與最終驗證,只是效能下降,而非直接停擺。

評論:這場爭論正在把「去中心化」從單純的協定屬性,推向更現實的基礎設施所有權與運維路徑設計。再強的「加密」也很難單獨解決「雲端依賴」;真正的挑戰是把超大規模雲端留在可替換的位置,並用分散式運算、分散式儲存等方案確保關鍵產出(如證明結果、歷史資料、驗證輸入)不會因供應商決策而被回收或阻斷。就長期而言,「超大規模雲端」可以是效率工具,但「去中心化」要站得住腳,仍得把依賴關係設計成可承受、可切換、可退路的結構。

<版權所有 ⓒ TokenPost,未經授權禁止轉載與散佈>

最受歡迎

其他相關文章

主打文章

瑞波幣(XRP)交易量低迷、1.44 美元屢攻不破:區間壓縮待放量,失守 1.34 恐下看 1.30~1.32

比特幣(BTC)選擇權情緒快速轉多:6月底站上8萬美元機率約35%,偏度回升至-6%

留言 0

留言小技巧

好文章。 希望有後續報導。 分析得很棒。

0/1000

留言小技巧

好文章。 希望有後續報導。 分析得很棒。
1