加拿大發布關于生成式AI系統的自愿行為準則
劃重點:
1. ? 加拿大發布自愿行為準則:加拿大政府發布了有關生成式人工智能系統的自愿行為準則,旨在規范該技術的發展與使用。
2. ? 準則內容概述:準則要求開發者和管理者在系統開發中承擔責任、確保安全性、公平與公正,提高透明度、進行人工監督和監控,并確保系統有效性與健壯性。
3. ? 影響與法律修正:這一準則可能影響到加拿大的生成式AI系統開發和維護,同時也可能影響到有關人工智能法律的修訂,以更好適應技術發展。
微新創想(idea2003.com) 10月13日 消息:加拿大政府最近發布了一份關于生成式人工智能系統的自愿行為準則,旨在規范這一新興技術的發展與使用。這一準則對生成式AI系統的開發者和管理者提出了一系列要求,以確保其發展與運營在公平、安全、透明、有人工監督和有效性方面達到一定標準。
圖源備注:圖片由AI生成,圖片授權服務商Midjourney
這一自愿行為準則涵蓋了多個關鍵方面,包括責任、安全、公平與公正、透明度、人工監督和監控,以及有效性與健壯性。以下是準則的主要要點:
-
問責制:準則要求所有生成式AI系統的開發者和管理者建立全面的風險管理框架,包括政策、程序和培訓。對于創建公共使用的生成式AI系統,還需要在發布之前采取多重防御措施,如第三方審計。
-
安全:生成式AI系統的開發者和管理者需要進行全面的風險評估,包括可能的不當或惡意使用風險。他們還需要采取適當的措施來減輕已識別的風險,并向下游開發者和管理者提供適當的系統使用信息以及減輕措施。
-
公平與公正:特別適用于所有生成式AI系統的開發者,包括公共使用的系統。他們需要評估和策劃用于培訓的數據集,以管理數據質量和潛在偏見,并在發布AI系統之前實施多樣化的測試方法和措施,以評估和減輕輸出的偏見風險。
-
透明度:準則要求公共使用的生成式AI系統的開發者發布有關系統能力和限制的信息,并實施可靠和免費的檢測生成內容的方法,重點關注音頻-視覺內容。同時,他們需要公開描述用于開發系統的培訓數據類型以及識別和減輕風險的措施。
-
人工監督和監控:開發者需要在部署后維護有關已報告事件的數據庫,并提供更新以確保有效的減輕措施。管理者需要在系統發布后監控其操作,以防止有害使用或影響,并采取第三方反饋渠道和實施使用控制以減輕危害。
-
有效性與健壯性:生成式AI系統的開發者需要在部署之前使用各種測試方法來衡量性能和確保健壯性,包括采用對抗性測試來識別漏洞,評估網絡安全風險并實施適當的措施來減輕風險,以及基準測試以衡量模型的性能。
這一自愿行為準則已經得到了許多知名機構的簽署,表明其在當前加拿大生成式AI系統開發和維護框架中的重要性。
此外,這一準則還可能影響到有關《人工智能與數據法案》(AIDA)的修訂,使其更加結構化和具體化,以適應技術的發展。當前,AIDA法案已經在工業與技術委員會審議中,加拿大政府提出了一系列修改,包括明確定義“高影響”系統類別、為通用AI系統制定特定義務、加強AI系統價值鏈的區分、明確擬議AI專員的角色,并進行與歐盟和其他OECD法域立法一致的修改,以確保加拿大企業能夠與其他法域互操作并進入國際市場。