美國 AI 圈近日爆發罕見「同業站隊」事件。多家媒體披露,五角大樓先前要求 Anthropic 放寬 Claude 的使用限制,接受「所有合法用途」的軍方部署框架;Anthropic 以反對大規模監控與缺乏人類監督的致命自主武器為由拒絕。期限到期後,川普政府隨即指示聯邦機關停止使用 Anthropic 技術,國防部並將其列為「供應鏈風險」,要求國防承包商不得再採用 Claude。
根據 Axios 報導,國防部曾向 Anthropic 執行長 Dario Amodei 發出最後通牒,要求在期限前同意軍方「不受限」使用其模型,否則將面臨嚴厲後果。 而 CBS 也引述消息人士指出,雙方爭議焦點之一,是 Anthropic 希望國防部承諾不得以 Claude 進行「對美國人的大規模監控」等高風險用途。
事件延燒後,OpenAI 旋即宣布與國防部達成協議,讓其模型可用於機密系統,但同時強調合約設下多層安全護欄與三條紅線:不得用於大規模國內監控、不得用於自主武器目標鎖定、以及重大高風險自動化決策須保留人類介入。路透也指出,Anthropic 擬對「供應鏈風險」認定提出法律挑戰。
矽谷內部的反應同樣劇烈。TechCrunch 報導,一封支持 Anthropic 立場的公開信獲得 Google 與 OpenAI 員工連署,呼籲公司高層暫放競爭分歧,堅守反監控與反「全自動致命武器」的底線。
與此同時,替代供應鏈正在成形。Axios 先前披露,馬斯克旗下 xAI 已與五角大樓簽署協議,允許 Grok 進入機密系統,且接受較寬泛的「合法用途」標準;不過外界也質疑其能力與成熟度能否完全滿足軍方需求。
分析認為,這起風波凸顯華府在國安需求與 AI 安全倫理之間的拉扯正快速升溫,並可能迫使更多模型供應商在「可用性」與「護欄」之間做出明確選邊。

