Anthropic 被五角大廈列黑名單:拒絕讓 AI 做自主武器的代價
產業觀察 — Mar 9, 2026

Anthropic 被五角大廈列黑名單:拒絕讓 AI 做自主武器的代價

Anthropic 拒絕讓五角大廈無限制使用 Claude,遭 Trump 政府列為「供應鏈風險」。CEO Dario Amodei 堅持不讓 AI 用於自主武器和監控美國公民,隨即提起訴訟反擊。

一家 AI 公司因為堅持安全底線,被自己的國家政府列為國安威脅——這在歷史上前所未見。

事件經過

2026 年 2 月 27 日,Trump 政府簽署行政命令,要求所有聯邦機構和軍事承包商立即停止採購和使用 Anthropic 的產品,包括 Claude API 和企業版服務。理由是將 Anthropic 列為「供應鏈風險」——這個標籤通常只用在外國敵對國家的承包商身上。

導火線是 Anthropic 與五角大廈的合約談判破裂。五角大廈要求「不受限制」地使用 Claude,包括整合進自主武器系統和國內情報分析工具。Anthropic 要求五角大廈書面保證不將 Claude 用於兩件事:自主殺傷性武器決策、以及對美國公民的大規模監控。五角大廈拒絕簽署這項保證。

Anthropic 的立場

CEO Dario Amodei 在公司全員信中表明立場:「我們建立 Anthropic 是為了讓 AI 造福人類,不是為了讓機器自己決定誰該死。」他強調這不是反政府、也不是反軍方合作——Anthropic 願意與國防部合作非致命性的 AI 應用,但在自主武器和公民監控上有不可退讓的紅線。

這個立場讓 Anthropic 承受了巨大的商業壓力。聯邦政府是 AI 產業最大的單一客戶之一,光是國防和情報部門的 AI 預算就超過百億美元。被列為供應鏈風險不只是失去聯邦合約,還可能嚇跑與政府有業務往來的企業客戶。據估計,這項禁令可能影響 Anthropic 數億美元的年營收。

更大的問題

「供應鏈風險」這個標籤的嚴重性不容小覷。它原本設計用來對付像華為這樣被認定對國安構成威脅的外國公司。將它用在一家美國本土 AI 公司上,史無前例。法律專家指出,這可能構成對企業的政治報復,違反第一修正案對商業言論的保護。

3 月 9 日,Anthropic 正式向聯邦法院提起訴訟,挑戰行政命令的合法性。訴訟核心主張:政府不能因為一家公司拒絕配合有倫理疑慮的用途,就將其列為國安威脅。這場訴訟的結果不只影響 Anthropic,更將定義 AI 公司對政府的議價權力和倫理底線在哪裡。

對產業的影響

這場衝突迫使所有 AI 公司表態。Google 和 Microsoft 都曾因 Project Maven 軍事 AI 計畫引發員工抗議,但最終都選擇與五角大廈合作。OpenAI 在 2024 年悄悄修改了使用政策,移除了禁止軍事用途的條款。Anthropic 是唯一一家公開劃紅線的主要 AI 公司。

對使用者來說,這是一個關於 AI 治理的根本問題:AI 公司應該有權決定自己的技術被用在哪裡嗎?還是政府有權要求無限制使用?你選擇使用哪家公司的 AI,某種程度上也是在投票支持哪種 AI 治理模式。

TAKEAWAY

AI 安全不只是技術問題,是政治問題。Anthropic 選擇了原則,也承受了代價。這場訴訟的結果,將定義 AI 公司與政府的權力邊界。

更多 AI 新聞

追蹤 IG 第一時間收到 AI 新聞推播。