BlockBeats 消息,5 月 4 日,AI 社區用戶「X Freeze」發文稱,包括 ChatGPT、Claude 及 Gemini 在內的主流人工智能模型,在性別、移民、犯罪等議題上「較少認同保守立場」,並質疑其價值取向可能存在系統性偏向。 該觀點認為,隨著 AI 能力快速提升,其「價值觀對齊」(alignment)過程或受到訓練數據與設計機制影響,從而在部分公共議題中呈現出一致性傾向。相關言論在社區引發關於「訓練數據偏差」與「模型設計導向」的討論。 目前,主流 AI 開發機構普遍表示,其模型訓練目標在於提升資訊準確性與安全性,並通過多元數據與評估機制減少偏差,但關於 AI 價值中立性的爭議仍在持續。
社區質疑主流AI存在意識形態偏向,引發「訓練偏差」討論
BlockBeats 消息,5 月 4 日,AI 社區用戶「X Freeze」發文稱,包括 ChatGPT、Claude 及 Gemini 在內的主流人工智能模型,在性別、移民、犯罪等議題上「較少認同保守立場」,並質疑其價值取向可能存在系統性偏向。
該觀點認為,隨著 AI 能力快速提升,其「價值觀對齊」(alignment)過程或受到訓練數據與設計機制影響,從而在部分公共議題中呈現出一致性傾向。相關言論在社區引發關於「訓練數據偏差」與「模型設計導向」的討論。
目前,主流 AI 開發機構普遍表示,其模型訓練目標在於提升資訊準確性與安全性,並通過多元數據與評估機制減少偏差,但關於 AI 價值中立性的爭議仍在持續。