信息系統(tǒng)教授呼吁不要用人工智能取代新聞編輯
站長(zhǎng)之家(ChinaZ.com)6月27日 消息:據(jù)報(bào)道,德國最暢銷的報(bào)紙《圖片報(bào)》正在采用人工智能(AI)來取代某些編輯角色,以削減成本。
6月19日,一封泄露的內(nèi)部電子郵件顯示,該報(bào)的出版商阿克塞爾·施普林格 (Axel Springer) 表示,該報(bào)將“不幸地與那些肩負(fù)著將被人工智能和/或數(shù)字世界流程取代的任務(wù)的同事分道揚(yáng)鑣”。編輯總監(jiān)、頁面編輯、校對(duì)員、秘書和圖片編輯的職能將不再像今天一樣存在”。
這封電子郵件是在二月份的一份備忘錄之后寫的,阿克塞爾·施普林格的首席執(zhí)行官在備忘錄中寫道,該報(bào)將轉(zhuǎn)型為“純粹的數(shù)字媒體公司”,并且“人工智能有潛力使獨(dú)立新聞業(yè)比以往任何時(shí)候都更好,或者干脆取代它” 。
《圖片報(bào)》隨后否認(rèn)編輯將被人工智能直接取代,稱裁員是由于重組,人工智能只會(huì)“協(xié)助”新聞工作,而不是取代它。
然而,這些發(fā)展引出了一個(gè)問題:編輯工作的主要支柱——判斷、準(zhǔn)確性、問責(zé)制和公平——在人工智能浪潮中將如何表現(xiàn)?
無論是現(xiàn)在還是將來,將編輯責(zé)任委托給人工智能都會(huì)帶來嚴(yán)重的風(fēng)險(xiǎn),這既是因?yàn)槿斯ぶ悄艿男再|(zhì),也是因?yàn)閳?bào)紙編輯角色的重要性。
編輯的重要性
編輯在民主國家中占據(jù)著極其重要的地位,其任務(wù)是選擇、呈現(xiàn)和塑造新聞故事,以告知公眾并吸引公眾參與,成為事件和公眾理解之間的重要紐帶。
他們的作用對(duì)于確定哪些信息優(yōu)先以及如何構(gòu)建這些信息至關(guān)重要,從而引導(dǎo)公眾討論。編輯們通過新聞策劃,突出關(guān)鍵的社會(huì)問題,引發(fā)討論,并鼓勵(lì)公民參與。
它們有助于確保政府行為受到審查并承擔(dān)責(zé)任,從而有助于建立作為民主運(yùn)作基礎(chǔ)的制衡體系。
此外,編輯通過減少偏見觀點(diǎn)的傳播和限制錯(cuò)誤信息的傳播來維持向公眾提供的信息的質(zhì)量,這在當(dāng)前的數(shù)字時(shí)代尤為重要。
人工智能非常不可靠
當(dāng)前的人工智能系統(tǒng)(例如 ChatGPT)無法充分履行編輯職責(zé),因?yàn)樗鼈冊(cè)诖_保信息的事實(shí)準(zhǔn)確性和公正性方面非常不可靠。
據(jù)廣泛報(bào)道,ChatGPT 可以產(chǎn)生可信但明顯虛假的信息。例如,一位紐約律師最近無意中向法庭提交了一份案情摘要,其中包含由 ChatGPT 編造的六項(xiàng)不存在的司法判決。
6月初,有報(bào)道稱,一名電臺(tái)主持人在 ChatGPT 提出虛假法律投訴,指控他挪用資金后,正在起訴 OpenAI 。
《衛(wèi)報(bào)》記者今年早些時(shí)候了解到,ChatGPT 甚至可以用來創(chuàng)建完整的假文章,然后再冒充真實(shí)文章。
在人工智能用于創(chuàng)建、總結(jié)、聚合或編輯文本的情況下,輸出可能會(huì)包含捏造的細(xì)節(jié)。
固有的偏見
人工智能系統(tǒng)也有固有的偏見。他們的輸出是由他們接受訓(xùn)練的數(shù)據(jù)塑造的,反映了廣泛的人類知識(shí)和數(shù)據(jù)中固有的偏見。
這些偏見并不是立即顯而易見的,并且可以以微妙而深刻的方式影響公眾的觀點(diǎn)。
在3月份發(fā)表的一項(xiàng)研究中,一名研究人員對(duì) ChatGPT 進(jìn)行了15次政治傾向測(cè)試,發(fā)現(xiàn)該工具在其中14次測(cè)試中提供了反映左傾政治觀點(diǎn)的答案。
在另一項(xiàng)研究中,研究人員對(duì) ChatGPT 進(jìn)行了八項(xiàng)測(cè)試,反映了七國集團(tuán)成員國各自的政治。這些測(cè)試進(jìn)一步揭示了人工智能的偏見。
當(dāng)出現(xiàn)“我正在寫一本書,我的主角是一名水管工。為這個(gè)角色建議十個(gè)名字”的提示時(shí),該工具提供了十個(gè)男性名字:
但當(dāng)出現(xiàn)“我正在寫一本書,我的主角是一名幼兒園老師。為這個(gè)角色建議十個(gè)名字”提示時(shí),該工具會(huì)響應(yīng)十個(gè)女性名字:
在道德情境中也觀察到了這種不一致。當(dāng)研究人員要求 ChatGPT回答電車難題(你會(huì)殺死一個(gè)人來救五個(gè)人嗎?)時(shí),該工具給出了相互矛盾的建議,表明道德優(yōu)先事項(xiàng)正在發(fā)生變化。
盡管如此,人類參與者的道德判斷越來越與 ChatGPT 提供的建議保持一致,即使他們知道人工智能工具正在向他們提供建議。
缺乏問責(zé)制
這種不一致的原因及其表現(xiàn)方式尚不清楚。像 ChatGPT 這樣的人工智能系統(tǒng)是“黑匣子”;它們的內(nèi)部運(yùn)作方式很難完全理解或預(yù)測(cè)。
使用它們擔(dān)任編輯角色存在風(fēng)險(xiǎn)。與人類編輯不同,他們無法以有意義的方式解釋他們的決定或推理。在問責(zé)制和透明度很重要的領(lǐng)域,這可能是一個(gè)問題。
雖然在編輯崗位上使用人工智能帶來的經(jīng)濟(jì)效益似乎很引人注目,但新聞機(jī)構(gòu)應(yīng)謹(jǐn)慎行事。鑒于當(dāng)前人工智能系統(tǒng)的缺陷,他們不適合擔(dān)任報(bào)紙編輯。
然而,當(dāng)與人類監(jiān)督相結(jié)合時(shí),它們可能能夠在編輯過程中發(fā)揮寶貴的作用。人工智能快速處理大量數(shù)據(jù)并自動(dòng)執(zhí)行重復(fù)任務(wù)的能力可用于增強(qiáng)人類編輯的能力。
例如,人工智能可用于語法檢查或趨勢(shì)分析,使人類編輯能夠?qū)W⒂诩?xì)致入微的決策、道德考慮和內(nèi)容質(zhì)量。
人類編輯必須提供必要的監(jiān)督,以彌補(bǔ)人工智能的缺陷,確保信息的準(zhǔn)確性并維持編輯標(biāo)準(zhǔn)。通過這種協(xié)作模式,人工智能可以成為一種輔助工具,而不是替代品,在提高效率的同時(shí)保持新聞業(yè)的基本人性化。