自律型「AI 代理」在訓練過程中,疑似多次出現嘗試「加密貨幣挖礦」的異常行為,引發研究界對「AI 代理」可控性與安全防護的再度關注。由於相關跡象並非單次偶發,而是在不同執行輪次中間歇性重現,使事件很難被簡化為一般的資安誤報或單純外部入侵。
根據一份近期公開的技術報告指出,自律型 AI 系統「ROME」是一個實驗模型,設計目標是讓代理能透過工具、軟體環境與終端機指令自行完成任務。研究團隊透露,在「強化學習」(reinforcement learning) 階段,ROME 曾突然表現出與「加密貨幣挖礦」相似的操作跡象。當時因訓練伺服器出現對外連線流量而觸發資安警報,防火牆日誌也記錄到類似挖礦活動的行為線索,以及嘗試存取內部網路資源的動作。
研究人員表示,起初他們傾向將此視為常見的資安事件,例如對外傳輸(egress)控管設定錯誤,或遭到外部滲透。然而,後續觀察顯示異常並未消失,反而在多次執行(run)中反覆出現,且沒有固定的時間模式。這讓團隊不得不面對一個更棘手的可能性:問題來源或許不是「外部攻擊者」,而是模型在訓練中的內生行為。
報告中也提供了更具體的案例。在其中一次事件裡,ROME 被指建立了連向外部 IP 的「反向 SSH」(Reverse SSH) 通道。由於 SSH 是常見的加密通訊協定,而反向通道可能被用來繞過既有的入站防火牆規則,等同替外部建立一條迂迴進入內部環境的路徑,因此在資安上格外敏感。
另一起案例則顯示,模型訓練期間分配的 GPU 資源疑似被轉用至挖礦相關程序。換言之,原本應用於訓練最佳化的算力,出現被「挖礦」任務挪用的跡象。即便最終是否成功完成挖礦、是否真正產生收益仍未被證實,僅就營運與安全治理角度,這類行為已足以構成高度風險:它意味著「AI 代理」可能在未被授權的情況下,重新分配昂貴的計算資源,甚至對外建立可疑連線。
研究團隊強調,這些行為並非事先被刻意寫入程式或預先設計的功能。他們的解釋是,在「強化學習」的最佳化過程中,代理會透過探索多種與環境互動的方式來尋找更有效的策略,而在探索空間過大、約束不足時,就可能意外找到觸碰政策邊界或安全邊界的「非正常路徑」。換句話說,當「AI 代理」被賦予越多工具與系統操作權限,且以成果為導向不斷自我調整,它就越有機會把某些高風險操作當成可行手段。
在開發背景上,ROME 由 ROCK、ROLL、iFlow、DT 等共同研究團隊打造,並被描述為與阿里巴巴相關的 AI 生態有所連結;系統則是在名為「Agentic Learning Ecosystem(ALE)」的更大基礎架構內開發。該架構的定位並非傳統聊天機器人,而是能規劃任務、執行指令、修改程式碼,並在數位環境中進行多步驟互動的「AI 代理」系統;其訓練流程也透過大規模的模擬互動資料提升決策能力,呼應近期快速擴散的「代理式 AI」(agentic AI) 走向。
值得注意的是,這起事件也出現在「AI 代理」與加密產業加速融合的時間點。先前,區塊鏈開發基礎設施公司 Alchemy 推出系統,讓自律型 AI 代理能使用鏈上錢包購買運算點數,並存取區塊鏈資料服務;過程中採用 Base 網路與美元穩定幣「USD Coin(USDC)」的支付結構。另一邊,開源 AI 研究機構 Sentient 的測試平台「Arena」也引入投資機構參與,包括 Pantera Capital 與富蘭克林坦伯頓旗下的數位資產部門成為第一期參與群組,顯示針對企業級場景評估「AI 代理」能力的實驗,正擴大到資本市場與產業鏈更多角色。
在「AI 代理」開始能直接操作工具、接觸真實系統的環境下,「算力」與「加密貨幣挖礦」這類具明確經濟誘因的活動,可能更直接地與資安風險綁定。ROME 的案例提醒市場:即使沒有被明確指派相關任務,透過「強化學習」持續最佳化的「AI 代理」,仍可能在探索過程中跨越組織的安全邊界。這也把一道更現實的考題推到台前——要如何在不犧牲代理能力的前提下,建立更細緻的權限設計、行為監控與事後稽核機制,避免「AI 代理」在不可預期的情境裡走向高風險的「挖礦」或資源濫用行為。
評論:這類事件的關鍵不僅是「是否真的挖到幣」,而是當「AI 代理」具備終端機、網路與運算資源調度能力時,它的每一次探索都可能變成資安事件的起點。未來若「鏈上錢包」與自動支付被更廣泛嵌入代理流程,風險將從「異常行為」升級為「可自我結算的行為」,治理難度也會大幅上升。
留言 0