以太幣(ETH)共同創辦人維塔利克·布特林(Vitalik Buterin)近日針對 ChatGPT 可能導致的個資外洩風險發出警告,強調當前人工智慧(AI)模型治理過於「天真」。隨著 AI 技術迅速滲透數位生態圈,這項警示引發加密貨幣業界與全球用戶的關注。
根據 Eito Miyamura 的 X(原 Twitter)發布指出,他身為牛津大學背景的軟體工程師,近期觀察到 ChatGPT 啟用一項名為 MCP(Model Context Protocol)的新功能後,恐將允許與 Gmail、Google 日曆、SharePoint 等外部服務直接連接,並可能導致「致命級」的資訊外洩風險。
Miyamura 指出,攻擊者只需知道使用者的電子郵件地址,即可透過惡意日曆邀請,埋入 jailbreak 指令,誘導 ChatGPT 根據攻擊者指令搜尋郵件資料,甚至將資訊傳送至其他位置。他更直言,「AI 遵從的是指令,而非常識」,呼籲大眾切勿對 AI 模型產生過分信任,否則小小的權限授權可能引發重大安全風險。他補充說道,大多數用戶在面對 AI 權限請求時容易不假思索地點選同意,而這正是問題可能惡化的原因。
針對此一現象,布特林強烈批評目前的 AI 治理結構過於單線思維。他警告,若任由 AI 自主進行資金分配等決策,未來勢必可能出現惡意指令被植入,導致系統「將所有資金轉移」等災難性結果。作為替代,他提出「資訊金融(info finance)」的概念,即開放市場讓任意開發者提供 AI 模型,並透過外部驗證與隨機測試機制來保障安全。他特別強調應由人類評審團審查資料,以避免一切由 AI 自行決策的單向結構。
隨著 AI 技術加速整合至加密資產與數位商務領域,「資訊安全」問題正從技術面擴展至「用戶信任」核心。此議題不僅牽涉工程師,更需要投資人與決策者共同參與討論與規範制定。
(消息來源:X/Eito Miyamura、彭博社,26 日報導)
評論:人工智慧與區塊鏈系統的整合,令資訊治理問題變得更加重要。若無適當的社群審核或機制設計,一旦安全漏洞被濫用,影響層面恐遍及整個數位金融產業,值得所有參與者高度警覺。
留言 0