Anthropic 執行長與美國國防部爆發嚴重衝突,正推動一項折衷方案,以避免公司被列入「政府黑名單」,在國防相關「供應鏈風險」評估中遭到排除。若談判破裂,市場預期這家總部位於舊金山的 AI 公司,恐將被美國政府及軍工體系視為「高風險供應商」,實質喪失參與國防合約的資格與機會。
根據 《Financial Times》 報導,於 24 日(當地時間)Dario Amodei(達里歐·阿莫代伊)正與美國國防部研究與工程事務副部長 Emil Michael(埃米爾·麥可)等官員進行緊急協商。核心爭議在於,軍方可在多大範圍內存取與運用 Anthropic 的 AI 模型「詞Claude」;雙方正嘗試以具體條文,界定軍方的實際使用邊界。一旦達成協議,五角大廈得以持續部署這項技術,同時不會將 Anthropic 標記為「詞供應鏈風險企業」。反之,若遭正式標註為風險來源,不僅現有國防契約將被中止,主要軍事承包商也將被迫終止與 Anthropic 的合作。
這場衝突可追溯至今年 1 月。當時美國針對委內瑞拉領導人尼古拉斯·馬杜羅(Nicolás Maduro)的逮捕行動中,疑似動用了「詞Claude」技術。事後,Anthropic 員工從 Palantir(帕蘭提爾)的系統記錄中,發現該行動在情報分析或作戰規劃過程中,可能使用了公司的模型,引發內部質疑這是否違反公司制定的「詞可接受使用政策(Acceptable Use Policy)」。這項質疑動搖了公司與「詞美國國防部」之間的互信,也成為雙方關係急遽惡化的導火線。
國防部方面,據傳希望在協議文本中,賦予軍方得以為任何「詞合法(lawful)」目的大量使用 AI 的廣泛授權。這種措辭被視為能涵蓋從戰場支援、情報分析,到國土安全與邊境管控等多種應用場景。但「詞Anthropic」則憂心,「任何合法用途」將被解讀成對「詞大規模監控(surveillance)」甚至半自主或全自主武器系統全面開放,和其一貫強調的「詞AI 安全」與「限制大規模監控、限制完全自主武器」的原則背道而馳。評論:從產業角度來看,這其實是「國安需求」與「企業倫理規範」正面衝突的典型案例。
《Financial Times》報導指出,在 Amodei 拒絕接受政府最後通牒後,川普總統隨即指示聯邦政府機構暫停採用 Anthropic 技術,國防部長 Pete Hegseth(皮特·黑格塞斯)也將 Anthropic 列為國家安全層級的「詞供應鏈風險」來源。若這項措施持續有效,Anthropic 面臨的將不只是喪失單一合約,而是被整體「詞軍工生態系」系統性排除的長期打擊。
面對壓力,Amodei 則反擊指控,稱國防部與競爭對手「詞OpenAI」在對外說法上「扭曲事實」,忽略了 Anthropic 已經為配合政府需求所做出的讓步。他更暗示,Anthropic 在政治層面上,並不像部分同業那樣「積極讚揚川普總統」,可能因此在「詞政府採購」與「國防合約」分配上處於不利位置。評論:這種指控突顯 AI 政策問題被政治化的風險,企業在「技術路線」之外,恐怕也不得不面對「政治站隊」壓力。
在商業層面,「詞Anthropic」先前與 OpenAI、Google(谷歌)、xAI 共同取得美國國防部針對「詞Agentic AI(代理型 AI)」的研發和部署合約,總額最高達 2 億美元(約新台幣 296.8 億元)。所謂「Agentic AI」,是指能替自己設定目標、拆解任務並自動執行的一類進階 AI 系統,在軍事領域被視為可運用在「情報整理」、「任務規劃」、「後勤與補給調度」等多個高價值場景。若 Anthropic 因「詞供應鏈風險」標註而被排除,意味著不只失去關鍵營收來源,亦會削弱其在「詞軍用 AI」技術版圖中的戰略位置。
對市場而言,這一連串發展也衝擊了 Anthropic 精心塑造的「詞AI 安全領導者」形象。該公司原本以「安全性高」、「對使用情境更為謹慎」作為核心賣點,試圖與其他大型 AI 供應商做出差異化。如今與美國國防部的衝突若長期化,恐使政府與大型企業客戶開始質疑:與 Anthropic 合作是否會帶來「政策與合規不確定性」,進而影響其在大型 B2B 與政府標案市場的拓展。
然而,多位業界觀察人士指出,這起事件的影響層面已超越單一公司。隨著「國家安全」對先進 AI 的需求不斷放大,「詞政府」勢必希望擁有更大的技術使用裁量權,而「詞AI 企業」則會試圖堅守自身對「詞倫理」、「詞人權」、「詞監管責任」的要求,雙方在條款、技術控制與監督機制上的摩擦幾乎難以避免。未來 Anthropic 與美國國防部如何在協議中精確定義「合法用途」與「可接受使用政策」的交集,並設計何種「監督與問責機制」,將成為推演整個「詞軍用 AI」市場規則與標準的關鍵風向標。
留言 0