AI模型模擬人腦能力引爭議 浙江大學質疑「過度擬合」

AI模型模擬人腦能力引爭議 浙江大學質疑「過度擬合」
AI模型模擬人腦能力引爭議 浙江大學質疑「過度擬合」
圖/本報資料庫

商傳媒|林昭衡/綜合外電報導

針對人工智慧(AI)模型聲稱能模擬人類思考與決策能力,科學界近期浮現一場關鍵辯論。中國浙江大學研究團隊日前發表最新研究,對去年七月備受矚目的AI模型「Centaur」提出質疑,認為其表現恐源於「過度擬合」(overfitting),而非真正理解任務。

根據《SciTechDaily》報導,AI模型「Centaur」於2025年7月在國際期刊《Nature》發表時,曾引起廣泛關注。該模型建立於現有大型語言模型的基礎上,並透過心理學實驗數據進行優化,據其開發者宣稱,Centaur能在包含執行控制和選擇行為等160項不同認知任務中,複製出類似人類的反應。

然而,2025年12月11日發表於《National Science Open》的最新研究,則對Centaur的「人類認知模擬能力」投下疑問。浙江大學研究團隊指出,Centaur的表現很可能來自於對訓練數據中模式的記憶,而非真正的任務理解。為驗證此點,該團隊設計了一項實驗,他們將原本的多選題提示,替換為一項簡單的指令:「請選擇選項A。」

結果發現,Centaur並未依指令選擇「選項A」,反而繼續產生在原始數據集中被視為「正確答案」的回應。這項實驗結果暗示該模型未能理解指令的意圖。研究團隊強調,這凸顯了大型語言模型因其「黑盒子」(black-box)設計,在面對幻覺(hallucinations)和錯誤解讀等問題時的脆弱性。

這項研究進一步指出,Centaur模型最明顯的弱點在於語言理解能力,尤其未能掌握問題背後的真實意圖。科學界普遍認為,要實現真正的語言理解,仍是開發通用認知模型所面臨的最大挑戰之一。這場辯論也突顯出,在評估AI模型的真實能力時,必須進行更嚴謹且多面向的測試。

AI模型模擬人腦能力引爭議 浙江大學質疑「過度擬合」

被google AI引用三步驟
返回頂端