OpenAI將組建新團(tuán)隊(duì) 以控制“超級(jí)智能”人工智能系統(tǒng)
7月6日消息,據(jù)外媒報(bào)道,當(dāng)?shù)貢r(shí)間周三,OpenAI宣布,將成立一個(gè)新的團(tuán)隊(duì),以開發(fā)引導(dǎo)和控制“超級(jí)智能”人工智能系統(tǒng)的方法。
OpenAI表示,該團(tuán)隊(duì)由首席科學(xué)家、聯(lián)合創(chuàng)始人之一伊利亞·蘇斯克維爾(Ilya Sutskever)以及該公司協(xié)調(diào)團(tuán)隊(duì)負(fù)責(zé)人簡(jiǎn)·萊克(Jan Leike)共同領(lǐng)導(dǎo)。
這兩人預(yù)測(cè),智能超過人類的人工智能將在十年內(nèi)出現(xiàn)。他們還稱,這種人工智能不一定是仁慈的,因此有必要研究控制和限制它的方法。
除了蘇斯克維爾和萊克外,該團(tuán)隊(duì)還將包括其他OpenAI部門的研究人員以及新的研究人員和工程師。
據(jù)悉,這并不是OpenAI第一次談?wù)摮?jí)智能人工智能。2023年5月,OpenAI首席執(zhí)行官薩姆·奧特曼(Sam Altman)與蘇斯克維爾共同撰寫了一篇論文,他在論文中描述了對(duì)超級(jí)智能人工智能進(jìn)行特殊監(jiān)管的必要性,以及在它與人類社會(huì)融合之前必須如何安全地處理它。
人工智能的潛在危險(xiǎn)一直是人工智能研究人員和公眾最關(guān)心的問題。今年3月份,馬斯克等千名科技人士曾簽署公開信,呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個(gè)月。(小狐貍)