GitHub等科技公司呼吁歐盟在人工智能法律中提供更多的開源支持
微新創想(idea2003.com)7月26日 消息:據theverge消息,在一份發給歐盟決策者的文件中,一群科技企業,包括 GitHub、Hugging Face、Creative Commons 等,鼓勵對不同 AI 模型的開源開發給予更多支持,因為他們考慮最終確定 AI 法案。EleutherAI、LAION 和 Open Future 也聯合簽署了這份文件。
他們在最終規則之前向歐洲議會提出的建議清單包括:對 AI 組件的更清晰的定義,澄清業余愛好者和研究人員在開源模型上的工作并不是從 AI 中獲得商業利益,允許對 AI 項目進行有限的現實世界測試,以及為不同的基礎模型設定比例合理的要求。
Github 高級政策經理 Peter Cihon 告訴 The Verge,這份文件的目標是為立法者提供關于如何最好地支持 AI 發展的指導。他說,一旦其他政府出臺了他們版本的 AI 法律,公司希望被聽到。“我們希望決策者在動筆時,能夠遵循歐盟的榜樣。”
圍繞 AI 的監管一直是許多政府關注的熱點話題,歐盟是最早開始認真討論提案的國家之一。但是歐盟的 AI 法案也因為對 AI 技術的定義過于寬泛,而同時又過于側重于應用層而受到批評。
“AI 法案有望樹立一個全球先例,在監管 AI 以解決其風險的同時鼓勵創新,”這些公司在文件中寫道。“通過支持正在蓬勃發展的開放生態系統方法來進行 AI,該法規有一個重要的機會來進一步實現這一目標。”
該法案旨在涵蓋不同種類的 AI 的規則,盡管大部分關注都集中在擬議的法規將如何管理生成式 AI 上。歐洲議會于6月通過了一份草案政策。
一些生成式 AI 模型的開發者擁抱了分享模型訪問權限和允許更大的 AI 社區玩弄它并建立信任的開源精神。Stability AI 發布了一個開源版本的 Stable Diffusion,Meta 也有點類似地將其大型語言模型 Llama2作為開源發布。Meta 并沒有分享它從哪里獲得了訓練數據,也限制了誰可以免費使用該模型,所以 Llama2在技術上并沒有遵循開源標準。
開源倡導者認為,當人們不需要為訪問模型付費,并且對模型訓練方式有更多透明度時,AI 開發效果更好。但這也給創建這些框架的公司帶來了一些問題。OpenAI 決定停止分享關于 GPT 的大部分研究,因為擔心競爭和安全問題。
發布該文件的公司表示,目前一些提議影響被視為高風險的模型,無論開發者大小如何,都可能對那些沒有相當財力支持的人造成不利。例如,涉及第三方審計員“是昂貴且不必要的,無法緩解與基礎模型相關的風險”。
該集團還堅持認為,在開源庫上分享 AI 工具并不屬于商業活動,因此這些不應受到監管措施的影響。
公司表示,禁止在現實環境中測試 AI 模型的規則“將嚴重阻礙任何研究和開發”。他們說,開放測試為改進功能提供了經驗教訓。目前,AI 應用不能在封閉實驗之外進行測試,以防止未經測試的產品引起法律問題。
可以預見的是,AI 公司一直對歐盟的 AI 法案應該包含什么內容發表了自己的看法。OpenAI 向歐盟決策者游說反對對生成式 AI 實施更嚴厲的規則,而它的一些建議已經出現在最新版本的法案中。