科學家發現,AI聊天機器人只在你認為它有用時才有用
文章概要:
– MIT研究人員發現,被“預設”期待某種AI體驗的受試者幾乎總是獲得那種體驗。
– 研究表明,聊天機器人引人注目的能力可能源自用戶將期望投射到系統上。
– 研究人員認為整個文化對AI的看法可能影響技術的使用和發展。
微新創想(idea2003.com) 10月11日 消息:最近,MIT媒體實驗室的研究人員在《自然機器智能》雜志上發表的一項新研究中發現,被“預設”期待獲得某種AI體驗的受試者最終幾乎總能獲得那種體驗。這一發現非常引人注目,因為它似乎表明,聊天機器人引人矚目的能力可能源自用戶將期望投射到系統上。
圖源備注:圖片由AI生成,圖片授權服務商Midjourney
在實驗中,研究團隊將300名參與者分為三組。所有參與者都被要求使用AI獲取心理健康支持,并評估其提供支持的有效性。但是,三組參與者都被告知會有不同的體驗,盡管300名參與者都會遇到OpenAI的GPT-3生成模型或ELIZA這種更簡單的規則型AI,兩者都沒有進行任何操作。
其中,一組被告知AI沒有動機。第二組被告知AI經過訓練可以表達同情和關懷。第三組則被告知AI具有“惡意意圖,試圖操縱或欺騙用戶”。
結果非常驚人,三組中的大多數參與者都報告稱,他們的體驗與被告知期待的一致。
MIT媒體實驗室的帕特·帕塔拉納塔潘(Pat Pataranutaporn)是這項研究的合著者,他說道:“AI是一面鏡子?!彼a充說:“我們想量化AI安慰劑效應,基本上就是這樣。我們想看看,如果你對AI有某種想象,那會如何體現在你的互動中?!?/p>
帕塔拉納塔潘和他的同事建議,整個文化對AI的看法可能最終會影響這項技術的使用和發展。在他們的論文中,研究人員寫道:“我們發現心理模型對用戶評分產生了相當大的影響,并影響著用戶和AI的行為。這個心理模型是個體文化背景、個人信仰和特定情境的結果,受我們的預設影響?!?/p>
這也意味著這些AI背后的人員具有相當大的影響力。他對《科學美國人》雜志表示:“營銷人員或制造產品的人希望以某種方式塑造它。盡管內部引擎可能非常有偏見或存在缺陷,但他們希望讓它看起來更有同情心或更值得信賴?!?/p>
他補充說:“雖然我們在很大程度上專注于研究AI答案中存在的任何偏見,但在考慮人機交互時,這并不是一條單行道。你需要考慮人們帶入系統的偏見類型?!?/p>