
商傳媒|林昭衡/綜合外電報導
美國國防部(DOD)與人工智慧公司Anthropic之間的爭端近日升級,引發了關於軍事AI應用規範的重要討論。這場衝突的核心問題在於:誰應該為軍事用途的人工智慧設定界線?是行政部門、私營企業,還是國會及更廣泛的民主程序?
據報導,美國國防部長 Pete Hegseth 曾要求 Anthropic 執行長 Dario Amodei 在特定期限內,允許國防部無限制地使用其AI系統。由於 Anthropic 拒絕接受此要求,美國政府隨後將 Anthropic 列為供應鏈風險企業,並下令聯邦機構停止使用其技術,使得雙方對立情勢急劇升高。
Anthropic 拒絕接受兩項要求:一是允許其模型被用於對美國公民進行境內監控,二是允許其模型被用於完全自主的軍事目標鎖定。Hegseth 反對他所謂的商業AI系統中嵌入的「意識形態限制」,並主張確定合法軍事用途應是政府的責任,而非供應商的責任。他上個月在 Elon Musk 的 SpaceX 發表演說時表示:「我們不會採用不允許你發動戰爭的AI模型。」
從表面上看,這場爭端類似於單純的採購爭議。在市場經濟中,美國軍方決定想要購買的產品和服務,而公司則決定願意在何種條件下出售。雙方各自的立場本身並沒有絕對的對錯。如果產品不符合作戰需求,政府可以向其他供應商採購。如果公司認為其技術的某些用途不安全、不成熟或與其價值觀或風險承受能力不符,則可以拒絕提供。
然而,將 Anthropic 指定為「供應鏈風險」使得情況變得更加複雜。這個工具本應用於解決真正的國家安全漏洞,例如來自外國的威脅。但現在卻被用來封鎖一家美國公司,只因為該公司拒絕接受政府偏好的合約條款。Hegseth 聲稱,「所有與美國軍方有業務往來的承包商、供應商或合作夥伴,都不得與 Anthropic 進行任何商業活動。」這項舉措幾乎肯定會面臨法律挑戰,且其影響遠遠超出失去一份國防部合約。
Anthropic 所提出的兩項實質性問題也值得關注。首先,Anthropic 反對對美國公民進行境內監控,這觸及了長期存在的公民自由問題。美國政府在監控美國人時,受到憲法和法律的限制。一家公司聲明不希望其工具被用於促進境內監控,並非創造一項新原則,而是與長期的民主保障措施保持一致。
美國國防部並未明確表示打算使用該技術非法監視美國人。但其立場是,不希望採購具有內建限制的模型,因為這會妨礙其他合法的政府用途。換句話說,國防部認為遵守法律是政府的責任,而不是需要嵌入在供應商程式碼中的東西。Anthropic 則大力投資於訓練其系統,使其拒絕某些有害或高風險的任務,包括協助監視。因此,爭議的焦點不在於當前的意圖,而在於對約束的制度控制:是應該由國家透過法律和監督來實施,還是由開發者透過技術設計來實施。
第二個問題是反對完全自主的軍事目標鎖定,這更加複雜。美國國防部已經制定了在武力使用中需要人類判斷的政策,而關於武器系統自主性的辯論正在軍事和國際論壇中進行。一家私營公司可能合理地認為,其當前技術對於某些戰場應用來說不夠可靠或可控。同時,軍方可能得出結論,認為這些能力對於嚇阻和作戰效力是必要的。
針對軍事AI使用的界線,不應透過內閣部長和執行長之間的臨時談判來解決,也不應由任何一方施加更大的合約影響力來決定。美國政府如果認為某些AI能力對國家防禦至關重要,就應該公開闡明這一立場,在國會進行辯論,並反映在 doctrine、監督機制和法律框架中。這些規則應該是明確的,不僅對公司而言,也對公眾而言。
美國透過強調權力在透明的民主制度和法律約束下運作,將自己與威權政權區分開來。如果AI治理主要透過閉門發布的行政命令來決定,這種區別就沒有多大意義。此外,如果公司認為參與聯邦市場需要放棄所有部署條件,一些公司可能會退出這些市場。另一些公司可能會透過削弱或取消模型安全措施,以保持獲得政府合約的資格。這兩種結果都不會加強美國的技術領導地位。
美國國防部認為不允許潛在的「意識形態限制」破壞合法的軍事行動是正確的。但拒絕任意限制與拒絕企業風險管理在塑造部署條件中的任何作用之間存在差異。在高風險領域,承包商通常會實施安全標準、測試要求和操作限制,作為負責任的商業化的一部分。不應將AI視為完全免除這種做法。
內建的安全措施不應被視為軍事效力的障礙。在許多高風險領域,分層監督是一種標準做法:內部控制、技術故障安全、審計機制和法律審查共同運作。技術約束可以作為額外的後盾,降低濫用、錯誤或意外升級的風險。美國國防部應保留對合法使用的最終權力,但不必拒絕在設計層面嵌入的某些防護措施可以補充其自身監督結構的可能性。在某些情況下,安全系統中的冗餘會加強而非削弱操作的完整性。
同時,一家公司的單方面道德承諾不能取代公共政策。當技術具有國家安全影響時,私營治理具有固有的局限性。最終,關於監視權力、自主武器和交戰規則的決定屬於民主機構。這個事件說明了AI治理的一個關鍵時刻。處於技術前沿的AI系統現在足夠強大,可以影響情報分析、後勤、網路行動,甚至可能影響戰場決策。這使得它們太重要,不能僅由企業政策來管理,也太重要,不能僅由行政部門的自由裁量權來管理。
解決方案不是賦予一方權力來壓倒另一方,而是加強在它們之間進行調解的機構。國會應明確軍事AI使用的法定界限,並調查是否存在足夠的監督。美國國防部應闡明關於人類控制、審計和問責的詳細 doctrine。公民社會和產業應參與結構化的協商程序,而不是偶發性的對峙,採購政策應反映這些公開建立的標準。
如果AI防護措施可以透過合約壓力來消除,它們將被視為可以談判的。但是,如果它們以法律為基礎,它們就可以成為穩定的期望。對軍事AI的民主約束應屬於法規和 doctrine,而不應屬於私人合約談判。在國際軍事AI政策的討論中,台灣也應思考如何在軍事AI發展中納入民主監督機制,避免潛在風險。


