人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

普林斯頓大學教授認為,生成式AI炒作已“失控”

文章概要:

1. 普林斯頓大學教授認為,目前生成式AI的炒作已經失控,存在許多風險和不道德的開發行為。

2. 作者認為,對不同類型的AI不能一概而論,生成式AI確實 powerful,但不能被過度炒作。

3. 作者建議生成式AI公司應增加 透明度,政府應增加技術人員以更好地監管。

微新創想(idea2003.com)8月24日 消息:普林斯頓大學計算機科學專家Arvind Narayanan和他的學生Sayash Kapoor將出版新書“AI Snake Oil”,探討人工智能領域存在的許多炒作。他們認為,盡管生成式AI取得很大進步,但部分炒作已經失控。

Narayanan教授認為,不能將所有類型的AI放在一起考慮,生成式AI確實是一項強大技術,已經為許多人帶來好處,但同時也存在很多風險、傷害事件、不道德的開發行為,因此不能過度炒作。

Kapoor認為,與Facebook不同,當前生成式AI公司完全沒有 透明度,無法知道用戶如何使用這些平臺。他建議生成式AI公司應增加透明度報告。

兩人還認為,政府應增加技術人才,以更好地監管人工智能。現有法律已經可以覆蓋人工智能大部分監管,關鍵是執行。增加技術人才可以避免法律漏洞。

總之,作者希望人們對不同類型的AI有區分對待,承認生成式AI的進步,但也需要警惕其風險和炒作,通過transparency、政府監管等措施推動生成式AI的健康發展。

您可能還喜歡...

發表回復

您的郵箱地址不會被公開。 必填項已用 * 標注