SynapseWire

Anthropic 遭美國封殺,OpenAI 接手五角大樓 AI 合約:軍事 AI 倫理爭議全面升級

2026年2月,Anthropic 因拒絕移除 AI 安全限制遭美國政府封殺,OpenAI 迅速接手五角大樓合約。這場爭議揭示了 AI 軍事化應用中技術主權與國家安全的深層矛盾,ChatGPT 卸載量暴增三倍,Claude 衝上榜首。

作者: SynapseWire 編輯部 發布於:
AI 倫理與軍事應用的衝突示意圖,展示 Anthropic 與 OpenAI 在五角大樓合約爭議中的不同立場

2026年2月27日,美國總統川普下令所有聯邦機構停用 Anthropic 的 AI 技術。數小時後,OpenAI 宣布與五角大樓達成協議。爭議起因是一份軍事合約中的兩條限制。

Anthropic 堅持禁止其 Claude 模型用於大規模國內監控和全自主武器系統。五角大樓要求無限制使用權,用於「所有合法目的」。談判破裂後,國防部長將 Anthropic 列為「國家安全供應鏈風險」,這個標籤過去只用於外國敵對勢力。

兩條紅線引發對峙

衝突焦點是合約條款中的一個關鍵詞:「一切合法用途」。這句話將 AI 模型應用範圍的最終解釋權交由行政機關,而非技術供應商。

Anthropic CEO Dario Amodei 在聲明中表示,Claude 已應用於美國防部的情報分析、作戰規劃和網路作戰。但公司堅持兩項限制:禁止用於美國國內大規模監控,禁止用於全自主致命性武器。

「我們不能昧著良心答應國防部的要求。」Amodei 寫道。他說,這兩項限制從未阻礙美軍使用 Claude,公司是首家將模型部署到機密網路的 AI 公司。

國防部副部長 Emil Michael 表示,軍方不會允許科技公司「凌駕於國會法律之上」制定使用政策。國防部需要根據自身「合法」應用場景設置護欄,而非接受企業預設的限制。

2月24日,國防部長 Pete Hegseth 在會議上向 Amodei 發出最後通牒:要麼在2月27日下午5點前移除限制,要麼面臨制裁。Anthropic 拒絕。

OpenAI 的快速接手

Anthropic 被封殺的同一天晚上,OpenAI CEO Sam Altman 宣布與五角大樓達成協議。OpenAI 接受「合法用途」框架,但透過技術架構來控制風險。

OpenAI 官方聲明說,協議包含三條保護措施:僅限雲端部署、保留完整安全堆疊控制權、派駐經過安全審查的工程師協助政府。合約禁止將 AI 用於獨立指揮自主武器,以及不受約束地監控美國公民私人資訊。

3月2日,OpenAI 修改協議,增加更明確的保護條款,禁止「蓄意追蹤、監視或監控美國公民」,包括透過商業獲取的個人資訊。國防部承諾,OpenAI 的技術不會被國家安全局等情報機構使用。

Altman 在社交媒體上承認:「我們不應該在週五倉促發布這份協議。這些問題很複雜,需要清晰的溝通。我們想要緩和局勢,避免更糟的結果,但看起來只是機會主義和草率。」

市場反應:信任成為籌碼

消息曝光後,用戶反應激烈。市場情報公司 Sensor Tower 數據顯示,ChatGPT 的每日卸載率暴增200%,約70萬付費用戶取消訂閱。社交平台上出現「QuitGPT」行動,用戶擔心資料安全和企業價值立場。

Anthropic 的 Claude 衝上美國 App Store 免費下載榜首。Anthropic 推出「Switch without starting over」功能,讓用戶可以快速匯入過去的對話記錄。

這場用戶遷移不只是功能選擇,更是價值選擇。當技術能力相近時,企業的倫理立場成為影響用戶決策的因素。

技術依賴的兩難

諷刺的是,儘管政治層面出現爭議,Claude 仍在美軍系統中運作。BBC 報導,美國與以色列對伊朗的軍事行動中仍在使用 Claude。五角大樓拒絕評論。

Claude 是美國防部機密網路上唯一的前沿生成式 AI 模型,已整合進 Palantir 的 Maven 系統。專家估計,完全替換需要3到12個月。

前美國高級國防官員表示,將 Anthropic 列為供應鏈風險「已經超越懲罰範疇,簡直是霸凌」。一方面聲稱 Claude 對國家安全重要,另一方面又威脅將其列為風險,這兩件事自相矛盾。

Anthropic 與 AWS 的合作也增加了替換難度。Claude 使用亞馬遜專有的 Trainium 晶片訓練,適配國防部「聯合作戰雲能力」所依託的 AWS 雲架構。

產業分化

這場爭議後,AI 產業出現分流。一類公司高度依賴國防與政府預算,重點放在合規與可控部署。另一類強調倫理原則與全球民用市場,將信任視為資產。

牛津大學教授 Mariarosaria Taddeo 向 BBC 表示,Anthropic 退出後,「最注重安全的參與者」現在「離開了房間」。「這是一個問題。」

資訊技術與創新基金會副總裁 Daniel Castro 警告,這種做法可能向科技生態系統發出危險信號。「企業可能會認為,與聯邦政府合作意味著放棄獨立保障措施或承擔聲譽風險。長期來看,這可能會阻礙科技公司與軍方合作,削弱國防創新和美國的技術競爭力。」

未解決的問題

這場合約危機提出幾個問題:當 AI 成為戰略資產,技術主權與國家安全如何平衡?安全邊界應該在合約簽署前界定,還是等爭議發生後由法律裁定?企業的倫理立場能否抵擋政府的戰略需求?

OpenAI 拿下華盛頓的合作機會,Anthropic 在消費市場獲得關注。但問題不在合約歸屬,而在於未來規則如何被重塑。

AI 不只是提升效率的工具,而是逐漸成為權力結構的一部分。當一家公司的服務條款可能影響軍事部署與國家安全策略,傳統的監管框架不夠用。

數位主權與國防需求之間的拉扯,不會因一份合約而結束。能否找到一套同時兼顧創新、安全與市場運作的制度,將決定 AI 產業的未來。

相關連結:

分享文章

留言評論

0 則評論

暫無評論,搶先發表你的看法吧!

相關文章