以太幣(ETH)自去年 12 月推出「Fusaka 升級」後,面臨愈發嚴重的數據處理壓力。儘管此項升級旨在擴大數據容量並降低基於以太幣的擴展解決方案—如 Optimism(OP)、Arbitrum(ARB) 和 Base 的費用,實際上卻導致特定數據區塊經常從網路中遺漏,引發對其網路「穩定性」的擔憂。
根據區塊鏈研究機構 MigaLabs 的分析指出,自 10 月以來已挖掘的逾 75 萬個區塊中發現,一旦單一區塊內含有 16 個以上的「Blob」(即用於 Layer 2 擴展鏈回傳資料至主網的臨時資料單位),被網路忽略的機率顯著增加。儘管 Fusaka 升級用意在於擴容以支應更多的 Layer 2 用量,然而高數量 blob 的區塊卻反而容易造成網路處理延遲甚至資料遺失。
MigaLabs 進一步統計發現,若 blob 數量不超過 15 個,每個 slot 的遺漏率約為 0.5%;但一旦超過 16 個,遺漏率即攀升至平均 0.77%,部分甚至高達 1.79%。在最極端的情況中,含有 21 個 blob 的區塊,其被遺漏的機率甚至是一般區塊的三倍。這顯示數據量越大,處理也越困難,穩定性問題隨之浮現。
雖然目前以太坊官方將 blob 的目標數量上調至 14 個,但實際每個區塊裡的 blob 平均數量卻出現下降,反映出網路尚未能有效吸納這些新增數據。MigaLabs 指出,含 16 個以上 blob 的區塊仍佔整體比例極低,顯示升級後的數據處理量並未如預期成長。
對此,MigaLabs 發出警示:隨著 Layer 2 區塊鏈對以太幣的數據依賴性持續加深,若高 blob 數的情形常態化,可能對整體以太坊網路構成重大穩定性風險。尤其 Layer 2 解決方案普遍仰賴以太幣主網存證以保障「安全性」,一旦出現資料延遲或遺漏,連帶影響整個區塊鏈生態系。
MigaLabs 建議,應審慎評估未來是否擴大 blob 上限。在目前的網路狀況尚未得到改善之前,應先觀察現有限額下市場的真實使用情況,避免因過度擴容導致潛在風險擴大。評論:這反映出區塊鏈基礎層與擴展層之間仍需更細緻的工程優化。
此外,為因應未來可能的加密威脅,以太坊基金會近期也深化在「量子抗性」(post-quantum)技術的布局。據官方說法,目前已投入超過 200 萬美元推動該領域研究,由以太坊研發員 Justin Drake(賈斯汀·德瑞克)負責領導,並由 Thomas Coratger 與 Emile 負責相關實務技術開發,強化整體網路的長期「安全強韌性」。
留言 0