川普政府近期將人工智慧(AI)新創公司「Anthropic(앤트로픽)」列為「詞供應鏈風險(supply chain risk)」,導致其在美國國防部(DoD)相關標案與合作上幾乎被全面擋下。公司隨後對國防部及其他聯邦機構提起訴訟,強調這一分類等同於「事實上的黑名單」,缺乏明確法律依據,是為了保護既有「詞國防客戶」與「詞合作夥伴」所做出的不得已選擇。
根據《Financial Times》的報導,在政府正式作出分類決定前,Anthropic 執行長達里奧·阿莫代伊(Dario Amodei)曾於近期與美國國防高層進行最後協商,希望緩和緊張局勢,但最終仍未能阻止「供應鏈風險」標籤落地。Anthropic 一直堅持在自家 AI 系統中設置「詞安全護欄」,不允許技術被用於「詞大規模美國人監控」或「詞完全自主殺傷武器」,而這一立場被認為是雙方談判破裂的核心原因。
相對地,國防部則主張,Anthropic 的 AI 模型應可用於「詞所有合法目的(all lawful purposes)」,不應由企業單方面限定技術應用範圍。這使得「政府對 AI 軍事與情報用途的需求」與「民間 AI 公司自訂的倫理與安全邊界」正面衝突,民間技術與國家安全之間的界線再度成為公共政策與產業的爭議焦點。
在向法院遞交的訴狀中,Anthropic 指出,「供應鏈風險」這一歸類缺乏清楚的法律基礎,卻實際上繞過正常的「詞政府採購與評估程序」,對公司在國防市場的商機形成實質封殺。公司表示,將一方面持續與政府對話,一方面尋求司法審查,「以維護客戶、合作夥伴與整體事業運作」。
Anthropic 發言人接受 CNN 訪問時強調,尋求司法審查並不代表公司放棄「詞協助維護國家安全」的長期承諾,而是目前情勢下保護公司與客戶的必要步驟。「評論」這顯示民間 AI 公司開始更積極運用法律手段,對抗不透明的風險標籤與潛在的行政性封殺,未來可能成為產業常態。
有趣的是,在與政府的衝突升溫之際,Anthropic 的「詞消費者業務」不但沒有明顯受挫,反而展現一定「詞韌性」。在五角大廈最高可達 2 億美元(約 2,951 億 2,000 韓元)的合作案被曝出受影響後,Anthropic 的聊天機器人應用程式「Claude(클로드)」在蘋果 App Store 的下載排名,首次超越競爭對手 OpenAI 的「ChatGPT」。Anthropic 並透露,截至 3 月初,平均每天有超過「詞100 萬名」新用戶註冊使用 Claude,顯示即使在監管與政府採購風險升高的情況下,「詞生成式 AI」在消費端的需求仍持續擴張。
在「供應鏈風險」標籤生效後,主要雲端服務供應商也紛紛劃出界線,表示僅在「詞非國防用途」的情境下,繼續向客戶提供 Anthropic 的技術。谷歌(GOOGL)已確認,其雲端客戶在國防領域以外仍可使用 Anthropic 的 AI 能力;微軟(MSFT)也做出類似表態;亞馬遜(AMZN)同樣表示,除了防務相關工作外,將持續支援 Anthropic 在其他產業的應用。「評論」這意味著雲端與大科技公司試圖在「配合政府安全政策」與「維持商業合作」、「詞技術開放性」之間找到一個暫時的平衡。
業界分析認為,這起訴訟將成為美國政府在民間 AI 公司身上推行「用途範圍要求」與「詞安全、倫理原則」之間如何取得制度化平衡的重要試金石。如果「詞供應鏈風險」等分類在國防採購領域被常態化用作「事實上的淘汰工具」,不僅可能重挫個別企業的「詞業務連續性」,也會對整體 AI 產業的「詞供應鏈結構」、「詞國防科技創新模式」及「詞公私部門合作生態」帶來深遠影響。
留言 0