根據 CBS 等外媒於 24 日(當地時間)的報導,「클로드(Claude)」開發商 *앤스로픽(Anthropic)* 與美國國防部的合作,因一個「我們的 *AI* 被用在什麼任務上?」的提問而急轉直下。美國政府在懷疑該公司技術被用於「委內瑞拉總統尼古拉斯·馬杜羅(Nicolás Maduro)逮捕行動」後,啟動「*供應鏈風險*(*Supply Chain Risk*)」程序,實質將 *앤스로픽* 從聯邦政府採購生態中排除。這起風波,讓圍繞「*安全護欄*」、「*AI 安全*」的技術爭論,正式升級為「*國家安全*」與「*技術公司責任*」的正面衝突。
*앤스로픽* 早在 2024 年 11 月就與 *Palantir* 一同打入美國國防部的「機密網路」,完成首批「*前沿 AI(Frontier AI)*」部署。此後,*Claude* 被廣泛應用於情報分析、網路作戰、任務規劃,以及軍事建模與模擬等多個領域。到 2025 年 7 月,相關合約總額已擴大到約 2 億美元規模,美方更將其評定為「*任務關鍵(mission‑critical)*」系統,可見滲透速度與依賴程度之深。
轉折點出現在 2026 年 1 月。外界傳出,美國針對「委內瑞拉機密軍事行動」、也就是對馬杜羅的逮捕行動中,疑似援用了 *Claude* 的能力。消息一出,*앤스로픽* 隨即向 *Palantir* 詢問:「我們的技術,究竟是以什麼方式被用在這次行動中?」在一般產業環境,這類提問多被視為例行「*盡職調查(due diligence)*」的一環;然而在軍事體系內,這卻被解讀成對指揮體系的「不服從」。*公司端要求『使用情境透明度』的訴求,瞬間被翻譯為『威脅國家安全』*,雙方關係自此出現裂痕。
2 月最後一週,事態在短短 7 天內急遽惡化。24 日,時任戰爭部長的 *Pete Hegseth* 被指控在閉門會議中,要求 *앤스로픽* 執行長 *Dario Amodei* 全面解除 *Claude* 的各類「*安全護欄*」,讓系統可被用於大規模國內監控,甚至完全自律的殺傷性武器,並將最後期限訂在 27 日(美東時間)下午 5 時 1 分。
*Amodei* 隨即於 26 日公開表態,明確拒絕這項要求,並畫出兩條「*紅線*」:
第一,反對「*大規模國內監控*」。
他警告,一旦允許 *AI* 自動整合位置資訊、瀏覽紀錄與金融交易數據來進行人口「側寫」與分級管理,實際監控能力將遠遠超前現行法律與制度防線,導致公民隱私權與憲政秩序受到侵蝕。
第二,拒絕「*完全自律武器*」。
在目前「前沿級 *AI*」仍存在系統性偏差與不穩定性的前提下,將「生殺決策」完全交由演算法處理,被 *Amodei* 視為無法承受的風險。他提出,可與國防部合作強化系統可靠性與控制機制,但不接受在現階段下放完全自主權。這項提案據傳遭到軍方拒絕。
風波當天,美國國防部副部長 *Emil Michael* 亦在社群平台上以激烈言辭抨擊 *Amodei*,讓爭端正式走向公開化。當 27 日最後期限過去後,*川普總統* 下令聯邦各部門全面停止使用 *앤스로픽* 的技術;而 *Hegseth* 則依據 2018 年制定的「*聯邦採購供應鏈安全法(FASCSA)*」條款,正式將 *앤스로픽* 指定為「*供應鏈風險*」對象。
「*供應鏈風險*」標籤過去主要被用於如華為、卡巴斯基等外國企業,效果堪比一鍵「*Kill Switch*」。一旦被貼上此標籤,不只直接合約會被叫停,與聯邦政府有往來的防務新創與承包商也為避免連坐,往往會主動切斷一切相關合作關係。*評論:對任何想打入「政府—國防—AI」市場的公司來說,這形同終極黑名單。*
更具戲劇性的是,*앤스로픽* 被排除的同一天數小時內,*OpenAI* 卻與美國國防部簽下幾乎同樣條件的「機密網路 AI 部署」新合約。*OpenAI* 對外宣稱,此次協議中納入了「比以往任何一次『機密 *AI* 部署』更嚴格的 *安全護欄*」,但這種說法卻與外界「*앤스로픽* 因『安全護欄太多』而遭踢出局」的觀感發生衝突——*一間因堅持安全機制被排除的公司,座位立刻由另一家主打『更強安全護欄』的競爭對手補上*。
隨著週末到來,市場與公眾情緒迅速點燃。根據行動數據分析業者 *Sensor Tower* 數據,*ChatGPT* App 單日卸載量暴增 295%,而 *Claude* 則在包括美國在內的 7 個國家躍居 App Store 首位,下載量激增。另有逾 300 名 *Google* 員工與 60 多名 *OpenAI* 員工在公開連署信上簽名,表達對 *앤스로픽* 立場的支持,「*#QuitGPT*」標籤也在社群網路上快速擴散。
面對壓力,*OpenAI* 於 3 月 2 日公布補充條款,試圖穩住局面。新增內容包括:明確禁止將其系統用於針對美國公民的國內監控;規定若要讓國家安全局(NSA)直接存取系統,必須另行修訂合約;限制使用以商業方式購買的個資(如位置紀錄、瀏覽歷史與金融資料)來強化監視系統。然而,外界也注意到,*這些禁止條款是在合約簽署後的「週一」才追加*,意味著「週五」原始協議裡,相關限制恐怕並未被明確寫入。
風暴之下,*AI 技術本身的風險* 也被推到了檯面中央。報導引述一項軍事衝突模擬結果,稱包括 GPT‑5.2、Claude Sonnet 4、Gemini 3 Flash 等多個大型模型,在不同情境的戰爭模擬中,*有高達 95% 的情境最終選擇動用戰術核武*。若此數據屬實,這不僅是「倫理」問題,更直指「*系統可靠性*」與「*決策穩定性*」的根本缺陷。
研究者整理的 *AI 失誤型態* 包括:
— 在危機升級路徑上的「*緊張升級偏差(escalation bias)*」,系統傾向採取更具攻擊性與升級性的選項;
— 眾所周知的「*幻覺(hallucination)*」,在關鍵情境中捏造或誤讀關鍵資訊;
— 對「*敵對輸入(adversarial input)*」的高度脆弱,容易被刻意設計的訊號操控決策。
文章也回顧歷史案例,包括 2003 年愛國者飛彈誤擊友軍、1988 年擊落伊朗航空 655 班機等事件,指出即使是相對「可解釋」、規則明確的傳統軍事系統,都曾在實戰中釀成重大誤判。*評論:當決策從「規則系統」移交給結構更複雜且不透明的大型語言模型時,錯誤的可預測性與可追責性只會更低。*
在「*機密網路*」環境下,上述問題更加棘手。由於涉密部署難以接受外部審計與獨立檢驗,監督機制幾乎被隔絕於系統之外。*保護機密的牆,同時也擋住了監管的視線*,使得任何風險與濫用更難被及時發現與糾正。在這個框架中,*Amodei* 的立場更像是在說:「不是反對 *AI* 進入國防,而是認為以現有技術水準,『時程』被推得太快了。」
然而,將 *앤스로픽* 標記為「*供應鏈風險*」是否真能立刻切斷其對軍事體系的實際影響,仍充滿問號。*CBS* 報導稱,儘管官方宣告停用,*Claude* 仍被運用於部分現役軍事任務,包括伊朗相關行動。這顯示,一旦某項 *AI* 技術深度嵌入作戰鏈路與資訊系統,要透過行政命令「立刻拔除」並不現實,接下來政府該如何在既有系統中「強制落實安全護欄」,成為下一道難題。
國防部給出的邏輯簡單而強硬:*「軍事政策由軍方決定,科技公司只是供應商」*。在這個視角下,*AI* 公司無權制約系統如何被應用。而技術企業與公民社會則強調,「支援國防」與「把不成熟 *AI* 推上生殺決策台」是兩回事。衝突的核心,最終收斂為:*當『國家安全』與『AI 安全』出現在同一句話裡,誰擁有最後的控制權?*
這起事件也為整個 *AI 產業* 和資本市場釋放了清晰訊號:
*順從* 政府要求,可能換來龐大國防合約;
*堅持* 自訂的「安全紅線」,則可能被迅速列入「黑名單」。
這種「*獎懲結構*」的明朗化,將迫使各家 *AI* 公司在「營收成長」與「原則堅守」之間做出更明確選擇。
同時,從使用者集體刪除 App、到大廠員工公開連署,再到條款修訂爭議的持續發酵,都顯示:*AI 與國防合作,已不再是低調的 B2G 合約,而是社會輿論與政策辯論的核心戰場*。一句「*我們的 AI 被怎麼用?*」,正在重新劃定「AI 時代的國家安全邊界」,並逼迫各方回答:在新一輪軍備競賽中,人類願意把多少決策權交給演算法,又願意為此承擔多大的風險。
留言 0