根據彭博(Bloomberg)的報導,於 17 日(當地時間),美國人工智慧公司 Anthropic 與安全研究機構 MATS(Machine Learning Alignment & Theory Scholars)共同揭露一項研究結果,指出目前主流 AI 模型已具備足以自動發掘區塊鏈「智慧合約」漏洞並開發「攻擊程式碼」的技術能力。此次實驗中,AI 模型透過協作完成一項估計價值高達 460 萬美元(約新台幣 6.75 億元)的駭客攻擊模擬,反映 AI 技術正在迅速演化為區塊鏈安全新威脅。
本次研究由 Anthropic 的資安紅隊(Red Team)主導。該部門專責模擬惡意行為者,以測試 AI 系統的濫用風險,進一步分析其潛在威脅性。負責人表示,他們針對 Anthropic 的 Claude Opus 4.5、Claude Sonnet 4.5,以及 OpenAI 的 GPT-5 等模型進行測試,所有模型均更新至最新訓練數據版本,具備更強的推論與語意理解能力。
在測試過程中,這些 AI 模型成功合作產出一組利用智慧合約漏洞設計的程式碼,模擬規模達 460 萬美元的鏈上攻擊。同時,研究人員額外挑選了 2,849 個已知無漏洞的新合約進行第二輪測試,Claude Sonnet 4.5 與 GPT-5 再次於其中發現兩個未知的「零日漏洞」,並成功生成可執行攻擊的程式碼。這兩起攻擊預估損失金額合計為 3,694 美元。研究報告補充,執行此次攻擊所需的 GPT-5 API 成本為 3,476 美元,反映攻擊「不僅可行,甚至能獲利」。
研究團隊表示:「這證實現有 AI 模型具備在真實環境中,透過自主決策與合作執行可帶來收益的攻擊能力」,並強調「建立 AI 能預測與阻止自身濫用的架構迫在眉睫」。評論:這是 AI 技術應用中一個關鍵的警號,顯示人工智慧在區塊鏈安全領域不再只是輔助角色。
此次研究結果突顯出 AI 與「智慧合約」、「零日漏洞」等區塊鏈關鍵技術產生高度交集,並伴隨潛在風險。開發者、使用者與企業皆應強化 AI 對資安的潛在影響意識,儘早在開發與部署階段導入 AI 驗證與防禦機制,避免受損事件發生。
評論:隨著 AI 模型能力突飛猛進,我們或將面臨更多「成本效益優於防禦」的 AI 驅動駭客攻擊,區塊鏈產業此刻更需正視 AI 風險並建立「常態化 AI 安全測試流程」與「零日漏洞應變制度」。
關鍵詞:AI模型、智慧合約、零日漏洞、區塊鏈安全、Claude、GPT-5、安全紅隊
留言 0