SynapseWire

OpenAI 與五角大樓達成協議:AI 軍事應用的倫理紅線與未來展望

深入分析 OpenAI 與美國國防部達成協議背後的爭議,探討 AI 軍事應用的倫理邊界與科技公司在戰爭中的角色。

作者: SynapseWire 編輯部 發布於:
OpenAI 與五角大樓達成 AI 軍事合作協議

事件脈絡

2026 年 2 月下旬,AI 產業上演了一齣讓人跌破眼鏡的戲碼。美國國防部與 AI 公司之間的談判破局,雙方的核心矛盾在於:AI 技術可以用來做什麼?

這件事的起因是國防部找上 Anthropic,要求放寬 AI 模型的安全限制,允許「任何合法用途」——翻成白話文,就是讓政府可以用 AI 來監控美國人民、開發全自動的殺人機器。Anthropic 當然不肯,執行長 Dario Amodei 說得很直接:公司沒辦法「問心無愧」地答應這些條件。

Trump 總統隨後在 Truth Social 開罵,稱 Anthropic 是「左傾瘋子」,要所有聯邦機構立刻停用他們的技術。國防部那邊倒是爭取到六個月的過渡期,但雙方關係已經鬧僵了。

OpenAI 的抉擇

有趣的是,Anthropic 被踢掉沒多久,OpenAI 立刻補位。執行長 Sam Altman 在 X 上宣布,公司已經和五角大樓談成合作,美軍可以在「機密網路」上使用 OpenAI 的模型。

這下子有人罵 OpenAI 雙標——Anthropic 堅持的原則,OpenAI 怎麼就妥協了?Altman 的解釋是:這份合約明確寫了兩條禁令——不能用於大規模監控自主武器,而且人類必須對所有武力使用負責。他還說,希望國防部用同樣的條件對待所有 AI 公司。

他在聲明裡寫了一句耐人尋味的話:「世界是複雜、混亂,有時還很危險的地方。」這倒是實話。

兩大爭議點

這次風暴暴露了 AI 軍事應用的兩個根本問題:

大規模監控

AI 監控技術不是新鮮事,但能力越來越強。以色列軍隊在加沙的行動中就被踢爆使用「Lavender」、「The Gospel」等 AI 系統來篩選攻擊目標。這讓人權組織非常擔心:當政府手握這種技術,誰來監督他們?

Anthropic 堅持不讓技術用於監控,理由很簡單:今天說是打擊恐怖分子,明天可能就用來對付異見人士。

自主武器

所謂「致命自主武器」,就是那種自己會辨認目標、自己決定開火的武器。不需要人類批准,演算法說殺就殺。

Anthropic 拒絕為這種用途提供技術,說「人類必須對使用武力負起責任」。OpenAI 的合約也白紙黑字寫了同樣的立場。但批評者會問:合約歸合約,軍方真的會遵守嗎?技術交出去之後,誰能保證它不被用在奇怪的地方?

產業衝擊

這件事對 AI 產業的影響不小。Anthropic 樹立了一個硬漢形象,但也付出了代價——政府合約飛了,還被總統在社群媒體上修理。OpenAI 則走出了一條務實路線:原則不能丟,但桌子底下的生意還是要做。

其他 AI 公司大概也在重新思考:和政府合作,底線在哪裡?當國家安全來敲門的時候,要怎麼回應?

還有一點值得注意的是:國際間對 AI 軍事應用的規範幾乎是空白的。各國立場差很大,聯合國也沒有具體的約束力。以後會怎麼發展,沒人說得準。

結語

這齣戲還沒演完。OpenAI 與五角大樓的協議不是終點,而是起點。以後會不會有更多公司妥協? Anthropic 的硬頸會不會反而讓它失去市場?這些問題都值得觀察。

對我們普通人來說,這件事提醒了一件事:AI 不只是聊天機器人和影像生成器,它正在變成權力工具。誰能決定它的用途——這問題比任何技術發展都重要。

分享文章

留言評論

0 則評論

暫無評論,搶先發表你的看法吧!

相關文章