科學(xué)家發(fā)現(xiàn),AI聊天機(jī)器人只在你認(rèn)為它有用時才有用
文章概要:
– MIT研究人員發(fā)現(xiàn),被“預(yù)設(shè)”期待某種AI體驗的受試者幾乎總是獲得那種體驗。
– 研究表明,聊天機(jī)器人引人注目的能力可能源自用戶將期望投射到系統(tǒng)上。
– 研究人員認(rèn)為整個文化對AI的看法可能影響技術(shù)的使用和發(fā)展。
微新創(chuàng)想(idea2003.com) 10月11日 消息:最近,MIT媒體實驗室的研究人員在《自然機(jī)器智能》雜志上發(fā)表的一項新研究中發(fā)現(xiàn),被“預(yù)設(shè)”期待獲得某種AI體驗的受試者最終幾乎總能獲得那種體驗。這一發(fā)現(xiàn)非常引人注目,因為它似乎表明,聊天機(jī)器人引人矚目的能力可能源自用戶將期望投射到系統(tǒng)上。
圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney
在實驗中,研究團(tuán)隊將300名參與者分為三組。所有參與者都被要求使用AI獲取心理健康支持,并評估其提供支持的有效性。但是,三組參與者都被告知會有不同的體驗,盡管300名參與者都會遇到OpenAI的GPT-3生成模型或ELIZA這種更簡單的規(guī)則型AI,兩者都沒有進(jìn)行任何操作。
其中,一組被告知AI沒有動機(jī)。第二組被告知AI經(jīng)過訓(xùn)練可以表達(dá)同情和關(guān)懷。第三組則被告知AI具有“惡意意圖,試圖操縱或欺騙用戶”。
結(jié)果非常驚人,三組中的大多數(shù)參與者都報告稱,他們的體驗與被告知期待的一致。
MIT媒體實驗室的帕特·帕塔拉納塔潘(Pat Pataranutaporn)是這項研究的合著者,他說道:“AI是一面鏡子。”他補(bǔ)充說:“我們想量化AI安慰劑效應(yīng),基本上就是這樣。我們想看看,如果你對AI有某種想象,那會如何體現(xiàn)在你的互動中?!?/p>
帕塔拉納塔潘和他的同事建議,整個文化對AI的看法可能最終會影響這項技術(shù)的使用和發(fā)展。在他們的論文中,研究人員寫道:“我們發(fā)現(xiàn)心理模型對用戶評分產(chǎn)生了相當(dāng)大的影響,并影響著用戶和AI的行為。這個心理模型是個體文化背景、個人信仰和特定情境的結(jié)果,受我們的預(yù)設(shè)影響?!?/p>
這也意味著這些AI背后的人員具有相當(dāng)大的影響力。他對《科學(xué)美國人》雜志表示:“營銷人員或制造產(chǎn)品的人希望以某種方式塑造它。盡管內(nèi)部引擎可能非常有偏見或存在缺陷,但他們希望讓它看起來更有同情心或更值得信賴?!?/p>
他補(bǔ)充說:“雖然我們在很大程度上專注于研究AI答案中存在的任何偏見,但在考慮人機(jī)交互時,這并不是一條單行道。你需要考慮人們帶入系統(tǒng)的偏見類型?!?/p>