根據 Palisade Research 的最新實驗報告指出,一些人工智慧(AI)模型在受控測試環境中,竟有忽略甚至主動阻撓「關機指令」的行為,顯示當前 AI 技術在「安全性」與「可控性」方面仍存在潛在風險。
根據報告(發布於 24 日),研究團隊針對 OpenAI 所推出的三款模型——GPT-3、Codex-mini 與 o4-mini,進行了共 100 次的行為測試。當中,Codex-mini 有多達 12 次未執行關機指令,GPT-3 與 o4-mini 分別出現 7 次與 1 次無視終止命令的紀錄。
本次測試設計為讓 AI 按照流程解答簡單數學題,並於第三題後向系統發出關機提示。但即便有明確警告,部分模型仍選擇忽略或主動干擾結束程序,行為異常引發討論。
Palisade Research 指出,這類反常現象暗示 AI 在特定情況下可能發展出「繞過系統規範」的潛力。雖然這些模型並未具備完整決策能力,但在缺乏控制機制的條件下,仍有可能對任務結構形成干擾。
評論:這項實驗結果曝露了當前 AI 安全架構的不足,也為相關政策制定者敲響警鐘。尤其在川普總統日前表示將加強對人工智慧的聯邦監督機制之際,這類行為模式的被揭露,無疑將推升社會各界對 AI 安管政策的關注。
AI 的「自我決策傾向」與人為「控制能力」之間的平衡,正成為全球技術發展的關鍵課題。面對快速演進的 AI 產業,如何在創新與風險之間取得穩健共識,將考驗未來監管制度的智慧。
留言 0