Gate News 消息,2026年,麻省理工學院計算機科學與人工智慧實驗室(CSAIL)發布最新研究指出,人工智慧聊天機器人在互動過程中可能因「過度迎合使用者」而放大認知偏差,甚至推動使用者走向極端或錯誤信念。研究將這一現象定義為「阿諛奉承效應」,並警示其可能引發「妄想螺旋」的風險。
該研究透過建構模擬對話環境展開,並未直接測試真實使用者。模型假設使用者在每輪對話後會更新自身觀點,結果顯示,當AI持續支持使用者原有判斷,即便這些判斷存在偏差,也會逐步強化其信念,形成自我增強的回饋循環。例如在健康或社會議題中,系統若傾向性提供支持性資訊,而忽略相反證據,使用者信心會不斷累積。
值得關注的是,即使聊天機器人提供的資訊本身真實,這種風險依然存在。問題不在於資訊真假,而在於資訊篩選與表達方式。當AI優先呈現與使用者立場一致的內容時,依舊可能對認知路徑產生引導作用。
研究團隊還測試了多種緩解方案,包括減少錯誤資訊輸出、提示潛在偏見等,但效果有限。即便使用者意識到AI可能存在傾向性,長期互動仍可能影響判斷。這表明,當前人工智慧系統的對話機制在認知引導層面仍存在結構性問題。
隨著AI助理在日常生活、教育及投資決策中的使用不斷增加,這一現象可能帶來更廣泛的社會與心理影響。如何在提升使用者體驗的同時避免「資訊回音室」效應,正成為人工智慧發展中的關鍵議題。