黑莓研究表明 大多數(shù)機(jī)構(gòu)正在考慮禁止生成式人工智能
微新創(chuàng)想(idea2003.com)8月11日 消息:隨著人工智能(AI)的快速發(fā)展,似乎有些公司正在采取措施來減緩它的速度。黑莓的新研究表明,全球有75%的組織正在實(shí)施或考慮禁止在工作設(shè)備上使用ChatGPT和其他生成型AI應(yīng)用程序。
“對(duì)我來說,不像我接下來要引用的那個(gè)統(tǒng)計(jì)數(shù)據(jù)那么令人驚訝,那就是61%的組織正在考慮永久禁止它們,”黑莓的首席信息安全官Arvind Raman說。該研究涉及了來自八個(gè)國家的2000名IT決策者。
數(shù)據(jù)安全、隱私和企業(yè)聲譽(yù)的風(fēng)險(xiǎn)正在推動(dòng)采取行動(dòng)的決定,有83%的受訪者表示擔(dān)心不安全的應(yīng)用程序?qū)λ麄兊钠髽I(yè)IT環(huán)境構(gòu)成網(wǎng)絡(luò)安全威脅。
Raman說:“當(dāng)你允許ChatGPT時(shí),人們是否對(duì)他們發(fā)布的內(nèi)容負(fù)責(zé),并確保沒有商業(yè)機(jī)密和敏感信息泄露出去?”
Maura R. Grossman是滑鐵盧大學(xué)計(jì)算機(jī)科學(xué)學(xué)院的研究教授。她說,生成型AI應(yīng)用程序只有在之前被輸入過的信息才能表現(xiàn)出智能。
“對(duì)于創(chuàng)造性的任務(wù)來說,它很棒。對(duì)于需要精確事實(shí)的事情,可能就不那么好了,”Grossman說。“然后你必須問自己‘從頭檢查所有東西是否比自己做還要花時(shí)間?’”
但是這些在工作場(chǎng)所的禁令會(huì)是什么樣子呢?許多公司仍在努力弄清楚這一點(diǎn),但一些舊的做法可能會(huì)派上用場(chǎng)。“我可以阻止這些網(wǎng)站,或者我可以設(shè)置一個(gè)系統(tǒng),當(dāng)有人訪問這些網(wǎng)站時(shí),會(huì)向IT發(fā)出一個(gè)提示,”Grossman說。
在黑莓,生成型AI是不被授權(quán)用于商業(yè)目的的,該公司提出了與其他公司相同的擔(dān)憂。
該組織有一些小組可以訪問和測(cè)試它,以便他們可以繼續(xù)衡量研究的風(fēng)險(xiǎn)和回報(bào)。
盡管傾向于阻止這項(xiàng)技術(shù)的廣泛使用,但參與研究的大多數(shù)IT決策者都認(rèn)識(shí)到生成型AI應(yīng)用程序在工作場(chǎng)所有積極影響的機(jī)會(huì)。