Back to top
  • 공유 分享
  • 인쇄 列印
  • 글자크기 字體大小
已複製網址

AI 正改寫 DeFi 駭客經濟學:舊版智能合約成攻擊者低風險高報酬獵場

AI 正改寫 DeFi 駭客經濟學:舊版智能合約成攻擊者低風險高報酬獵場 / Tokenpost

根據區塊鏈安全業界最新觀察,*人工智慧(AI)* 正在重塑 *去中心化金融(DeFi)* 的「駭客經濟學」。隨著攻擊成本驟降、速度大幅提升,價值數百萬美元的資金遭到竊取的風險,正快速變成具體而明確的現實威脅。

安全專家指出,攻擊者已開始大量使用 *大型語言模型(LLM)*,例如「詞ChatGPT」、「詞Claude」,來分析智能合約。這些工具能在極短時間內掃描數千行程式碼,鎖定潛在弱點。特別是長期無人維護、開發團隊已解散或升級中止的「詞舊版合約(legacy contract)」,正成為被集體獵殺的首要目標。

區塊鏈安全公司 Halborn 的研究人員 *Gaby Urrutia* 表示,*「AI 不需要發明全新的漏洞,只要把既有問題找得更快、規模放得更大,就已經構成巨大的威脅。現在被棄置的 DeFi 合約與沉睡資產,正在遭到集中鎖定。」*「評論:這意味著過去被認為『沒人有空管』的老合約,正在變成攻擊者眼中的低風險、高報酬標的。」

這股變化與 *AI 產業投資熱潮* 互相疊加。隨著 OpenAI、Anthropic、xAI 等公司持續獲得資金挹注,AI 技術進步加速,其溢出效應也開始深刻影響 *DeFi 生態系*。在約 1,300 億美元規模的 DeFi 市場裡,多數 *區塊鏈安全公司* 才剛起步導入 AI;但攻擊者早已把 AI 當成標準工具,形成明顯的時間差。

安全公司 Firepan 聯合創辦人 *Garrett Hall* 直言,*「AI 程式代理(AI coding agent) 的進步速度太快,導致目前 DeFi 變得異常危險,攻擊能力的提升遠遠超前防禦技術。」*「評論:防禦方仍停留在『人工審查+少量自動化』的時代,但攻擊方已經進入『全自動、海量嘗試』的模式。」

AI 正在改寫「駭客經濟學」

過去,要發現智能合約的細微漏洞,需要高技術人才長時間手動審查,成本極高,因此駭客通常只會鎖定鎖倉規模龐大、足以支付人力成本的「大型 DeFi 專案」。然而,*AI 對重複工作的大幅自動化*,讓這個邏輯被完全改寫。

現在,即使只是幾百美元規模的小漏洞,也足以被列為「可獲利目標」。AI 把分析成本壓低到極限,「詞用數量取勝」的掃描式攻擊成為可能——攻擊者可以同時嘗試成千上萬個合約,只要少數命中,就足以回本並大幅獲利。

根據 *Anthropic* 的研究,AI 攻擊代理在實驗中,對過去曾被實際利用的 405 個智能合約進行測試,成功*重現攻擊*的比例達到 63%。若按原本被盜金額估算,*理論上約可實現 460 萬美元(約 6.9 億韓元)規模的竊取*。

此外,研究人員又針對近期部署的 2,849 個合約進行自動化掃描,AI 找出了 2 個先前未被發現的漏洞,並在模擬情境中創造約 3,694 美元(約 556 萬韓元)的潛在收益,而整個過程的成本僅約 3,476 美元。

「評論:雖然這組數字看似「只小賺一點」,但一旦這種流程完全自動化、長期 24 小時運作,且擴大到數十萬個合約,整體回報可能呈現指數級成長。」

AI 驅動的自動化攻擊已經啟動

多位區塊鏈安全專家表示,在真實世界的攻擊事件中,已可以觀察到明顯的 AI 使用痕跡。安全公司 Hacken 的 *Steven Azaí* 指出,*「多個合約在短時間內遭遇幾乎一模一樣的攻擊模式,這是典型的自動化 AI 探測特徵。」*

實務上,安全團隊觀測到有攻擊者在幾分鐘之內掃描數千個智能合約,快速測試同樣的利用手法。對人類團隊而言,這樣的速度幾乎不可能達成,顯示背後極可能是 *AI 代理+腳本* 組合運行。

近期一起規模約 2,600 萬美元(約 391 億韓元)的 *Truebit* 智能合約攻擊事件也被質疑存在 AI 參與。該事件鎖定的是一段*超過 5 年未更新的舊版合約*,利用其價格計算邏輯中的設計缺陷完成攻擊。多名專家指出,這種「歷史遺留錯誤」正是 AI 大量回溯老舊程式碼時,最容易自動發現並系統化利用的漏洞類型。

「只審一次」已過時,DeFi 安全標準被迫升級

在 *AI 駭客時代*,傳統的 DeFi 安全流程正面臨結構性挑戰。以往主流做法是合約部署前找安全公司進行一次「詞程式碼審計」,審過之後只要不大幅更新,就被視為相對安全。然而,這種「一次性審查」模式,顯然無法應對 AI 對老舊合約的持續重放攻擊。

Halborn 的 *Gaby Urrutia* 強調,*「『我們當初審過了』這句話,現在已經不再足夠。只要攻擊者持續用 AI 回頭分析歷史程式碼,任何舊風險都有重新被挖出、重新被武器化的可能。」*

因此,專家普遍認為,DeFi 專案必須把安全視為「常態性運作」,而不是「上線前的最後一步」。具體來說,*以 AI 為核心的持續監測與自動化攻擊模擬*,可能會成為新標準:

- 使用與攻擊者同級的「詞AI 掃描工具」,持續檢查自家智能合約與依賴的外部合約;

- 引入「詞自動化對抗測試(automated adversarial testing)」,模擬真實駭客行為,而不是只檢查靜態程式碼;

- 定期重新評估「詞舊版合約」與「詞長期鎖倉資產」,避免「被遺忘」成為最大的風險來源。

事實上,業界已出現成功案例。區塊鏈安全公司 *Octane Security* 近期利用自家 AI 工具,在以太坊(ETH) 執行客戶端 *Nethermind* 中挖掘出一個嚴重漏洞,若未及時修補,可能對整個網路穩定性與資金安全造成重大影響。這顯示 *AI 也能站在防禦方*,成為及早攔截系統性風險的重要助手。

然而,防守端仍面臨不少結構性問題。首先,目前針對「詞AI 參與攻擊」的追蹤與記錄標準仍相當薄弱,多數鏈上與後端日誌系統,無法明確判斷特定攻擊行為是否由 AI 代理操作。其次,審計規範與合規框架仍停留在「人工審查」時代,對於「詞AI 導入程度」、「詞自動化測試覆蓋率」等關鍵指標,缺乏統一標準。這些缺口,讓防守方在 *AI vs AI* 的對抗中處於劣勢。

結語:DeFi 正走入「AI 對 AI」的存亡考驗期

綜合安全公司和研究機構的分析,*DeFi 生態系已正式進入「AI 對 AI」的對抗階段*:

- 攻擊者用「詞AI 代理」大規模掃描舊合約,降低單次攻擊成本,改以「海量小額」的模式累積龐大利潤;

- 防禦方若仍停留在「人工審計+事後補洞」,將無法跟上攻擊節奏;

- 新一代 DeFi 安全架構,勢必以「詞持續監控」、「詞自動化對抗測試」與「詞AI 安全代理」為核心。

在未來幾年,*去中心化金融* 很可能迎來一段「存活壓力測試期」:那些願意持續投入 AI 安全、主動清理舊合約風險的專案,有望在這波攻防競賽中存活下來;而忽視「詞AI 風險」的協議,可能會在某個看似平靜的週末,被一個看不見的 AI 攻擊代理徹底清空資金池。

<版權所有 ⓒ TokenPost,未經授權禁止轉載與散佈>

最受歡迎

其他相關文章

留言 0

留言小技巧

好文章。 希望有後續報導。 分析得很棒。

0/1000

留言小技巧

好文章。 希望有後續報導。 分析得很棒。
1