
商傳媒|方承業/綜合外電報導
OpenAI 執行長 Sam Altman 近日坦承,公司與美國國防部之間的合作案「看來投機且草率」,並表示將修改協議內容。此舉正值 OpenAI 與國防部達成合作後,在網路上引發爭議之際。
Altman 在社群平台 X 上分享了一份內部備忘錄,表示公司將修改與美國國防部的合約,納入關於監視等議題的新條款,明確指出人工智慧(AI)系統「不得有意用於對美國人士和國民進行國內監視」。備忘錄中還提到,美國國防部理解此項限制,禁止蓄意追蹤、監視或監控美國人士或國民,包括透過採購或使用商業管道取得的個人或可識別資訊。
OpenAI 於上週五宣布與美國國防部達成新的合作協議。就在消息宣布的幾個小時前,美國總統川普才指示聯邦機構停止使用 OpenAI 競爭對手 Anthropic 的工具;同時,美國也即將對伊朗採取軍事行動。據 Altman 表示,美國國防部也已保證,OpenAI 的工具不會被國家安全局(NSA)等情報機構使用。
Altman 承認,他不應該倉促敲定上週五的協議。「我們真誠地想緩和局勢,避免更糟的結果,但我認為這看起來只是投機和草率,」他說道。此前,Anthropic 與華盛頓之間曾因 Claude AI 系統的安全保障問題發生公開爭執,最終未能達成協議,國防部長 Pete Hegseth 上週五表示,該公司將被認定為供應鏈風險。
在去年達成初步協議後,Anthropic 成為第一家在美國國防部機密網路中部署其模型的 AI 實驗室。該公司後來尋求保證,其工具不會被用於美國國內監視等目的,也不會在沒有人為控制的情況下操作和開發自主武器。這場爭端始於今年一月,當時有消息透露,Anthropic 的 Claude 被美國軍方用於抓捕委內瑞拉總統 Nicolás Maduro 的行動中,但該公司並未公開反對這種使用案例。
OpenAI 與美國國防部的協議,是在 Anthropic 與美國國防部的談判破裂後立即達成的。儘管 Altman 在週四的一份備忘錄中告訴員工,OpenAI 與 Anthropic 擁有相同的「紅線」,但 OpenAI 還是在上週五的一篇文章中表示,美國國防部同意該公司的限制。目前尚不清楚為何美國國防部願意遷就 OpenAI 而非 Anthropic,不過政府官員數月以來一直批評 Anthropic 過於關注 AI 安全性。
OpenAI 與美國國防部達成協議的時機,引發了網路上的強烈反彈,許多用戶紛紛轉用 Anthropic 的 Claude。Altman 在貼文中進一步闡述了這場爭議,他說:「在週末的談話中,我重申 Anthropic 不應被指定為(供應鏈風險),我們也希望(國防部)能向他們提供與我們商定的相同條款。」
Anthropic 由一群 OpenAI 前員工和研究人員於 2021 年創立,他們因對公司發展方向存在分歧而離開 OpenAI。Anthropic 一直將自己定位為「安全至上」的替代方案。此事件也突顯了AI企業在追求技術發展的同時,在倫理道德和社會責任方面所面臨的挑戰。對於台灣等同樣積極發展AI技術的地區而言,如何建立一套完善的AI倫理規範,並在技術發展與國家安全之間取得平衡,將是重要的課題。


