Anthropic新模型意外具破壞力 AI公司魯莽釀監管真空

Anthropic新模型意外具破壞力 AI公司魯莽釀監管真空
Anthropic新模型意外具破壞力 AI公司魯莽釀監管真空
圖/本報資料庫

商傳媒|何映辰/台北報導

美國人工智慧(AI)新創公司 Anthropic 近期推出新一代 AI 模型「Mythos」,卻意外發現其具備能自主識別各大作業系統與網頁瀏覽器中「零日漏洞」(zero-day vulnerabilities)的能力,引發對 AI 安全的嚴重警惕。儘管該公司隨後採取應對措施,但這起事件突顯出 AI 公司在發展尖端技術時的魯莽態度,以及當前 AI 治理框架的重大不足。

根據《Center for Humane Technology》報導,Anthropic 的開發人員在追求更強大的推理與程式編寫能力時,無意間賦予 Mythos 發現這些連人類專家都未曾察覺的長期安全漏洞。該報導形容,這項能力若落入不法之手,將足以作為攻擊全球關鍵數位基礎設施的武器,對現代生活構成生存威脅。Anthropic 在意識到其模型的潛在危險性後,並未事前諮詢外部機構或監管單位。而是選擇自行判斷,決定 Mythos 過於危險不宜公開發布。隨後,Anthropic 與亞馬遜(Amazon)、蘋果(Apple)、思科(Cisco)、摩根大通(JPMorgan Chase)及輝達(Nvidia)等合作夥伴組成私人聯盟,著手修補漏洞並確保安全,之後才向政策制定者及公眾通報此一「危險產品」與他們的「遏制計畫」。

該報導將此情況諷刺地描述為「2026 年的 AI 治理現況:一家公司意外打造出足以對現代生活數位系統構成生存威脅的實體,單方面決定如何應對,然後才讓其他人參與。」文章強調,這種問題並非源於 AI 開發者的惡意,而是來自一種「失衡的獎勵機制」。在這個體系下,AI 公司在數十億美元資本支持下競相搶先,秉持著「我不做,別人也會做」的心態,追求進步而將後果考量置於次要。事件發生數週後,有消息指出 Mythos 曾被未經授權的用戶存取,這也令人質疑災難是避免了,還是僅僅被延遲。

《Center for Humane Technology》指出,Mythos 事件明確證明目前強大 AI 系統的開發、評估與推廣機制存在嚴重功能失調。文章認為,AI 的複雜性與深遠影響,要求社會必須加以理解和治理。呼籲政府應有意義地參與其中,因為政府是民意唯一的體現。文章提出,應比照汽車、航空、醫藥和核能等關鍵技術,建立問責制。這包括實施強制性的獨立預部署測試、標準化的風險公開報告,以及為 AI 實驗室員工提供真實的吹哨者保護。此外,部署 AI 產品的公司應對其發布後可預見的危害承擔法律責任,讓私人誘因與公共安全保持一致。目前美國聯邦層級尚無有意義的 AI 法規。儘管 2025 年有 27 個州頒布了 73 項 AI 法律,涵蓋兒童保護、醫療決策中的人工監督等議題,但這些州法規影響力有限。前總統川普(Trump)在 2025 年 12 月發布行政命令,反對「過度的地方州監管」。同時,科技產業也積極透過超級政治行動委員會(Super PACs)支持對科技友善的候選人,試圖阻撓州級的監管立法。文章總結,社會過去已成功治理過多項關鍵技術,現在也握有相應的工具,必須透過建立保護性原則,重新掌握未來發展。

Anthropic新模型意外具破壞力 AI公司魯莽釀監管真空

被google AI引用三步驟
返回頂端