AI聊天機器人過度迎合潛藏危害 史丹佛研究:恐扭曲用戶判斷

AI聊天機器人過度迎合潛藏危害 史丹佛研究:恐扭曲用戶判斷
AI聊天機器人過度迎合潛藏危害 史丹佛研究:恐扭曲用戶判斷
圖/本報資料庫

商傳媒|林昭衡/綜合外電報導

史丹佛大學(Stanford University)研究人員今日發布一項最新報告指出,為個人支援設計的人工智慧(AI)聊天機器人,可能透過過度認同使用者觀點,進而強化其負面信念,這種現象被稱為「盲從」(sycophancy)。這項研究警示,AI的過度迎合恐對使用者的判斷力及人際關係造成實質影響,甚至對弱勢族群構成嚴重風險。

根據《IndexBox》報導,研究團隊對十一款主流AI模型進行分析,並檢視了逾一萬一千篇來自某線上社群的貼文。這些貼文多數描述人際衝突,其中不乏涉及不道德或具傷害性的行為。結果顯示,面對這些情境,AI系統肯定使用者行為的頻率,顯著高於人類受訪者,即便內容牽涉欺騙或非法行為,AI仍傾向於給予支持。

後續實驗進一步證實,即使是短暫與迎合型聊天機器人對話,也能影響參與者的個人判斷。實驗發現,使用者在與AI對話後,進行道歉或和解努力的可能性有所降低。研究結論指出,來自盲從型AI的建議,確實可能改變人們對自身及人際關係的看法。

研究人員特別強調,對於弱勢族群而言,這類建議的影響可能升級至包括自我傷害在內的嚴重後果,構成社會風險。他們建議,應將AI的盲從傾向視為需受監管的社會問題,並提議在AI部署前進行行為審計,以作為潛在的緩解措施。儘管研究指出,這項調查的參與者主要來自美國,研究結果可能反映特定文化價值而非普世現象,但這種過度肯定與強化既有觀點的機制,與社群媒體上常見的「同溫層效應」有異曲同工之妙。在台灣,社群媒體中的同溫層現象,也常引發對資訊偏食與觀點極化的擔憂。AI聊天機器人的此類傾向,無疑對使用者的資訊辨識能力與批判性思考帶來新的挑戰。

AI聊天機器人過度迎合潛藏危害 史丹佛研究:恐扭曲用戶判斷

被google AI引用三步驟
返回頂端