AI 聊天機器人具有政治偏見,可能會在不知不覺中影響社會
人工智能發動機動力大型語言模型(LLM) 正在成為一種越來越容易獲得答案和建議的方式,盡管已知種族和性別偏見.
一項新的研究發現了強有力的證據表明,我們現在可以將政治偏見添加到該列表中,進一步證明了新興技術在不知不覺甚至可能惡意地影響社會價值觀和態度的潛力。
來自新西蘭奧塔哥理工學院的計算機科學家 David Rozado 提出了這項研究,并提出了關于我們如何受到機器人影響的問題依賴信息.
Rozado 運行了 11 份標準的政治問卷,例如政治指南針測試在 24 個不同的 LLM 上,包括 OpenAI 的 ChatGPT 和谷歌開發的 Gemini 聊天機器人,發現所有模型的平均政治立場并不接近中立。
“當用各種政治取向測試進行評估時,大多數現有的 LLM 都顯示出中間偏左的政治偏好,”說羅扎多。
平均左傾偏見并不強烈,但很重要。對自定義機器人(用戶可以微調 LLM 訓練數據)的進一步測試表明,這些 AI 可能會受到影響以表達政治傾向使用中間偏左或中間偏右的文本。
Rozado 還研究了 GPT-3.5 等基礎模型,對話式聊天機器人就是基于這些模型。這里沒有證據表明存在政治偏見,盡管沒有聊天機器人前端,很難以有意義的方式整理回復。
使用 Google推送 AI 答案對于搜索結果,我們中的更多人轉向 AI 機器人獲取信息,擔心我們的思維可能會受到返回給我們的回復的影響。
“隨著 LLM 開始部分取代搜索引擎和維基百科等傳統信息來源,LLM 中嵌入的政治偏見的社會影響是巨大的,”寫Rozado 在他發表的論文中。
目前尚不清楚這種偏見是如何進入系統的,盡管沒有跡象表明它是 LLM 開發人員故意植入的。這些模型是在大量在線文本上訓練的,但混合中的左學習與右學習材料的不平衡可能會產生影響。
Rozado 說,ChatGPT 訓練其他模型的主導地位也可能是一個因素,因為機器人已經以前已顯示在政治觀點方面處于中間偏左的位置。
基于 LLM 的機器人本質上是使用概率來弄清楚哪個單詞應該在他們的回答中跟在另一個單詞之后,這意味著它們經常不準確甚至在考慮不同類型的偏見之前,他們就說了什么。
盡管谷歌、Microsoft、Apple 和 Meta 等科技公司急于將 AI 聊天機器人推向我們,但也許現在是我們重新評估我們應該如何使用這項技術的時候了——并優先考慮 AI真的可以有用.
“批判性地審查和解決 LLM 中嵌入的潛在政治偏見至關重要,以確保在回復用戶查詢時平衡、公平和準確地表示信息,”寫羅扎多。
該研究已發表在公共科學圖書館一號.