每日經濟新聞 2023-04-11 20:20:39
◎《辦法》提出,利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人,需承擔該產品生成內容生產者的責任;應當對生成式人工智能產品的預訓練數據、優化訓練數據來源的合法性負責。
◎行業研究人員盤和林在接受《每日經濟新聞》記者采訪時表示,此次征求意見稿對生成式人工智能的響應領先全球,符合我國先規范后發展的產業推進路徑。
每經記者 李宣璋 每經編輯 陳旭
4月11日,國家互聯網信息辦公室發布通知,就《生成式人工智能服務管理辦法(征求意見稿)》(下稱《辦法》)向社會公開征求意見。
所謂生成式人工智能,是指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。
《辦法》指出,研發、利用生成式人工智能產品,面向中華人民共和國境內公眾提供服務的,適用本《辦法》。
同時,《辦法》強調,國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先采用安全可信的軟件、工具、計算和數據資源。
互聯網用戶在嘗試使用ChatGPT 每經記者 劉國梅 攝
日前,以ChatGPT為代表的生成式AI應用的數據安全問題受到市場討論,也引發監管注意。
據中國青年報此前一篇名為《ChatGPT遭多國“圍堵”》的報道指出,意大利政府宣布禁止使用ChatGPT,限制ChatGPT的開發公司OpenAI處理意大利用戶信息,并開始進行相關的立案調查。
這是全球范圍內針對ChatGPT的第一道政府禁令。意大利的決定表明,尖端人工智能開發者面臨嚴峻的政策挑戰。
網信辦本次發布的《辦法》,對生成式人工智能的合法性以及相關法律作出了具體規定。
《辦法》提出,利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人(以下稱“提供者”),需承擔該產品生成內容生產者的責任;應當對生成式人工智能產品的預訓練數據、優化訓練數據來源的合法性負責。
《辦法》要求,用于生成式人工智能產品的預訓練、優化訓練數據,應滿足以下要求:
符合《中華人民共和國網絡安全法》等法律法規的要求;不含有侵犯知識產權的內容;數據包含個人信息的,應當征得個人信息主體同意或者符合法律、行政法規規定的其他情形;能夠保證數據的真實性、準確性、客觀性、多樣性;國家網信部門關于生成式人工智能服務的其他監管要求。
浙江大學國際聯合商學院數字經濟與金融創新研究中心聯席主任、研究員盤和林在接受《每日經濟新聞》記者書面采訪時表示,出臺征求意見稿是針對當前社會上普遍存在的對生成式人工智能的憂慮給出了一些解決方案,此次征求意見稿對生成式人工智能的響應領先全球,符合我國先規范后發展的產業推進路徑。
“個人認為征求意見稿解決了一些問題,諸如利用生成式人工智能進行不正當競爭等問題,的確應該盡早規范。”盤和林告訴記者,與此同時,有些規則也需要進一步細化,比如征求意見稿提到生成式人工智能應該提供真實準確的內容,而現階段生成式人工智能存在一個特點,就是在其無法理解的時候,會采用自我生成的方式來生產內容,而對于真實準確的尺度應該如何來衡量,還需進一步細化。
他進一步表示,當前人工智能生成內容(AIGC)已經成為生產力工具,亦可能帶來新一輪科技革命,所以發展AIGC應該是我國科技推進的重點。而制定規則,是推動我國AIGC產業發展的前提。
以ChatGPT為代表的生成式人工智能產品的爆火,其信息安全、是否侵犯用戶隱私等問題同樣受到高度關注。
《工人日報》此前報道,綠盟科技首席創新官劉文懋認為,在安全隱私方面,ChatGPT的高度“智能化”也導致其存在自己獨特的安全問題:提示注入。通過提示注入,用戶可以繞過OpenAI設置的內容安全策略,從而對ChatGPT進行濫用。
他進一步表示,在輔助編程這一應用場景上,ChatGPT的應用可能也存在一定的安全隱患,ChatGPT生成的代碼可能含有可被利用的已知安全漏洞。對于企業來說,雖然員工使用ChatGPT能夠在一定程度上提高某些工作的效率,但由于ChatGPT并沒有通過技術手段保障用戶數據安全,且會對用戶輸入進行分析,故對于敏感信息一定要嚴格加以保護。
此次發布的《辦法》,加強了對信息安全以及用戶方面的限制。例如《辦法》提出,提供者應當明確并公開其服務的適用人群、場合、用途,采取適當措施防范用戶過分依賴或沉迷生成內容。
提供者在提供服務過程中,對用戶的輸入信息和使用記錄承擔保護義務。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息。
封面圖片來源:每經資料圖
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP