AI專家呼吁全球政府采取“三分之一投資規(guī)則”
?劃重點:
1. AI專家集結(jié)呼吁政府監(jiān)管:杰弗里·辛頓、尤瓦爾·赫拉利等AI權(quán)威提出“三分之一投資規(guī)則”,強調(diào)AI的倫理和安全。
2. 國際AI安全峰會前發(fā)布共識:專家呼吁政府對AI風險采取民主監(jiān)管,避免信息誤導(dǎo)、社會不公和權(quán)力集中等問題。
3. 加強對高級AI系統(tǒng)的監(jiān)管:專家認為高級AI系統(tǒng)的能力增強必須伴隨安全措施,與快速發(fā)展的技術(shù)同步。
微新創(chuàng)想(idea2003.com)10月27日 消息:一篇由杰弗里·辛頓、尤瓦爾·赫拉利等聯(lián)合撰寫的論文呼吁全球政府采取具體監(jiān)管措施,以規(guī)范AI的發(fā)展和應(yīng)用。
這些專家包括三位圖靈獎得主、一位諾貝爾獎得主以及眾多AI學者,他們敦促各國政府采取緊急行動,提出了“三分之一投資規(guī)則”,要求主要從事AI系統(tǒng)開發(fā)的組織至少投入三分之一的資源來確保AI的安全和倫理使用,這一承諾與他們在能力開發(fā)上的投資水平相當。
圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney
杰弗里·辛頓,被廣泛認為是最有影響力的AI科學家之一,表示:“有些公司計劃在18個月內(nèi)用比今天最先進技術(shù)多100倍的計算來訓(xùn)練模型。沒有人知道它們將有多強大。而且對于它們將能夠做什么基本上沒有監(jiān)管。”
在倫敦舉行首屆國際AI安全峰會之前,這些專家發(fā)布了一份簡明的文件,概述了政府應(yīng)如何應(yīng)對與AI相關(guān)的風險。這份文件代表了迄今為止來自頂尖AI學者的最具切實性和全面性的一攬子要求。
這份文件強調(diào)了當前的AI模型具有巨大的影響力,需要民主監(jiān)管以防范潛在風險,包括AI生成的虛假信息、社會不公、權(quán)力集中、網(wǎng)絡(luò)戰(zhàn)爭和失控等問題。
文件的一位作者、計算機科學家尤瓦爾·赫拉利強調(diào)了這些措施的緊迫性,鑒于AI技術(shù)的快速發(fā)展。他表示:“是時候認真對待高級AI系統(tǒng)了。這些不是玩具。在了解如何使它們安全之前增強它們的能力是極其魯莽的。公司會抱怨難以滿足監(jiān)管,聲稱‘監(jiān)管扼殺創(chuàng)新’,這是荒謬的。對于AI公司來說,比三明治店更多的監(jiān)管是必要的。”