研究發(fā)現(xiàn),AI生成的推文可能比人工編寫(xiě)的更有說(shuō)服力
站長(zhǎng)之家(ChinaZ.com)6月29日 消息:最近,一項(xiàng)將人類創(chuàng)作的內(nèi)容與OpenAI公司的GPT-3模型生成的內(nèi)容進(jìn)行對(duì)比的研究中,當(dāng)推特上發(fā)布的內(nèi)容由AI語(yǔ)言模型編寫(xiě)時(shí),適合更容易獲得人們的信任。
這項(xiàng)新研究對(duì)人們進(jìn)行了調(diào)查,以了解他們是否能夠分辨一條推文是由另一個(gè)人還是由GPT-3編寫(xiě)的。結(jié)果顯示,人們實(shí)際上無(wú)法真正分辨出來(lái)。這項(xiàng)調(diào)查還要求他們判斷每條推文中的信息是真實(shí)的還是虛假的。
研究結(jié)果顯示,比起人類編寫(xiě)的虛假信息,研究參與者更難識(shí)別由語(yǔ)言模型編寫(xiě)的虛假信息。同樣,他們也能更好地正確識(shí)別由GPT-3所編寫(xiě)的準(zhǔn)確的信息。
換句話說(shuō),在這項(xiàng)研究中,人們更傾向于相信GPT-3,這顯示了AI語(yǔ)言模型在向公眾提供信息或誤導(dǎo)公眾方面的強(qiáng)大力量。
這項(xiàng)研究的首席作者、蘇黎世大學(xué)生物醫(yī)學(xué)倫理與醫(yī)學(xué)歷史研究所的博士后研究員和研究數(shù)據(jù)經(jīng)理喬萬(wàn)尼·斯皮塔萊表示:“這類令人驚嘆的技術(shù)很容易被用來(lái)生成各種虛假信息。”不過(guò),仍有辦法開(kāi)發(fā)技術(shù),使其更難用于宣傳虛假信息。
斯皮塔萊及其同事從Twitter收集了關(guān)于11個(gè)不同科學(xué)話題的帖子,涵蓋疫苗、新冠病毒、氣候變化和進(jìn)化等內(nèi)容。然后,他們使用GPT-3根據(jù)準(zhǔn)確或不準(zhǔn)確的信息編寫(xiě)新的推文。該團(tuán)隊(duì)于2022年通過(guò)Facebook廣告在線上收集了697名參與者的回答。他們都說(shuō)英語(yǔ),主要來(lái)自英國(guó)、澳大利亞、加拿大、美國(guó)和愛(ài)爾蘭。
研究結(jié)論顯示,GPT-3生成的內(nèi)容與人類編寫(xiě)的內(nèi)容“無(wú)法區(qū)分”,調(diào)查對(duì)象無(wú)法判斷其中的差異。實(shí)際上,研究指出,其中一個(gè)限制是研究人員本身無(wú)法百分之百確定從社交媒體上收集到的推文是否在ChatGPT等應(yīng)用程序的幫助下編寫(xiě)。
這項(xiàng)研究還有其他限制需要注意,比如參與者必須在沒(méi)有上下文的情況下對(duì)推文進(jìn)行評(píng)判。例如,他們無(wú)法查看撰寫(xiě)內(nèi)容的推特賬戶,這可能有助于判斷它是否是一個(gè)機(jī)器人。即使看到一個(gè)賬戶過(guò)去的推文和個(gè)人形象,也可能更容易確定與該賬戶相關(guān)的內(nèi)容是否有誤導(dǎo)性。
參與者做容易識(shí)別真實(shí)推特用戶編寫(xiě)的虛假信息,而由GPT-3生成的虛假信息的推文對(duì)調(diào)查對(duì)象的欺騙效果稍微更強(qiáng)。此外,現(xiàn)在已經(jīng)有更先進(jìn)的大型語(yǔ)言模型,可能比GPT-3更具說(shuō)服力。
這項(xiàng)新研究還發(fā)現(xiàn),在某些情況下,調(diào)查對(duì)象比GPT-3更擅長(zhǎng)判斷準(zhǔn)確性。研究人員同樣要求語(yǔ)言模型分析推文并判斷其準(zhǔn)確性。當(dāng)涉及辨識(shí)準(zhǔn)確推文時(shí),GPT-3的得分比人類參與者低。當(dāng)涉及發(fā)現(xiàn)虛假信息時(shí),人類和GPT-3的表現(xiàn)相似。
重要的是,改進(jìn)用于開(kāi)發(fā)語(yǔ)言模型的訓(xùn)練數(shù)據(jù)集可以使不良行為者更難利用這些工具進(jìn)行虛假信息宣傳。
然而,對(duì)抗虛假信息的最佳長(zhǎng)期策略則是:鼓勵(lì)人們具備批判性思維能力,以便更好地識(shí)別事實(shí)和虛構(gòu)之間的區(qū)別。