AI與學(xué)術(shù)界的較量!學(xué)術(shù)界有人使用ChatGPT撰寫論文
文章概要:
1. 計(jì)算機(jī)科學(xué)家Guillaume Cabanac發(fā)現(xiàn)論文中不慎復(fù)制了ChatGPT查詢短語(yǔ),揭露了使用ChatGPT來(lái)寫作的騙局。
2. 論文作者坦白承認(rèn)使用聊天機(jī)器人起草文章,引發(fā)學(xué)術(shù)界對(duì)生成式AI對(duì)學(xué)術(shù)界的擔(dān)憂。
3. 論文因未聲明使用ChatGPT而被撤銷,引發(fā)關(guān)于學(xué)術(shù)倫理和未來(lái)的爭(zhēng)論。
微新創(chuàng)想(idea2003.com) 9月11日 消息:上個(gè)月,一篇發(fā)表在Physica Scripta期刊上的論文因?yàn)橐晃挥?jì)算機(jī)科學(xué)家和誠(chéng)信調(diào)查員Guillaume Cabanac的發(fā)現(xiàn)而引發(fā)了爭(zhēng)議。他注意到ChatGPT查詢短語(yǔ)“Regenerate Response”不慎被復(fù)制到了文章中,看似出于意外。
如今,論文的作者已經(jīng)坦白承認(rèn)他們使用聊天機(jī)器人來(lái)起草文章,成為了生成式AI對(duì)學(xué)術(shù)界的最新示例,引發(fā)了學(xué)術(shù)倫理問(wèn)題。IOP Publishing的同行評(píng)審和研究誠(chéng)信主管Kim Eggleton表示:“這違反了我們的倫理政策。”
2015年以來(lái),Cabanac一直致力于揭示其他未公開(kāi)聲明用人工智能技術(shù)的已發(fā)表論文,當(dāng)時(shí)AI技術(shù)還只是一種好奇。隨著計(jì)算機(jī)能夠生成更加逼真、類似人類的作品,這一斗爭(zhēng)變得更加艱巨。但這僅加強(qiáng)了Cabanac的決心,他已經(jīng)幫助揭示了數(shù)百份由AI生成的手稿。
一些小心掩蓋痕跡的作者不會(huì)留下明顯的線索,但幸運(yùn)的是,像Cabanac這樣的偵探仍然可以找到很多跡象。他最近還揭發(fā)了另一篇發(fā)表在《Resources Policy》期刊上的論文,其中包含了幾個(gè)明顯的痕跡。該期刊表示已經(jīng)“意識(shí)到了這個(gè)問(wèn)題”,并正在調(diào)查此事件。
此外,AI模型經(jīng)常會(huì)混淆事實(shí),并且可能太愚蠢,無(wú)法準(zhǔn)確地復(fù)述科學(xué)論文中涉及的數(shù)學(xué)和技術(shù)術(shù)語(yǔ),就像《Resources Policy》的研究中包含的毫無(wú)意義的方程式一樣。
ChatGPT還可能會(huì)憑空制造虛假主張,這種現(xiàn)象或許過(guò)于寬容地被描述為“幻覺(jué)”。一個(gè)丹麥教授最近發(fā)現(xiàn),一篇預(yù)印論文部分由AI生成,因?yàn)樗昧怂虏淮嬖诘恼撐摹?/p>
考慮到同行評(píng)審過(guò)程的嚴(yán)格性,AI制作的偽造論文竟然能夠過(guò)關(guān),這實(shí)在令人震驚。