每日經濟新聞 2023-09-07 23:18:55
每經記者 溫雅蘭 每經編輯 張凌霄
人工智能是把雙刃劍。技術的使用在推動社會經濟飛速發展的同時,也會帶來多重“安全隱憂”。
9月7日,在2023 Inclusion•外灘大會上,中國科學院院士何積豐以《大模型時代的安全問題》為題,與大家共同探討大模型發展所帶來的安全問題以及應對之道。
人工智能擁有超強的自主學習能力,進化速度極快,在數次迭代升級后,是否有可能在多個方面超越人類?
何積豐提到:“人類與機器都在學習。人類指導機器,機器不斷學習變得更加智能;在這一過程中人類也要學習指導方法,使機器所生成的內容能夠更符合人類需要。”何積豐表示,在人工智能技術發展過程中,要牢記人類的核心角色,人工智能技術將成為人類的助手,而不是替代人類創造未來。
談及當前大模型帶來的安全隱患,何積豐認為,問題主要集中在隱私泄露以及對齊兩方面。
保護隱私安全至關重要
何積豐指出,隱私問題,即未經本人同意的情況下,收集、使用和泄露個人信息,是大模型發展過程中最受關注的問題。
具體來看,他認為,隱私問題在大模型的訓練、與用戶對話和結果生成三個階段都有所涉及。
首先,大模型與傳統機器學習不同,其訓練需要大量數據,在這一過程中,盡管研究人員早已采取相關措施,但是提示技術仍然使得大量用戶的個人信息和數據被大模型吸入,從而造成隱私泄露。
其次,大模型在與用戶對話過程中,可能涉及到眾多用戶私密信息,而這類信息往往沒有受到應有的隱私保護。如在使用大模型的過程中,數據控制鍵將要求用戶選擇“結束對話”或“繼續對話并允許獲取數據”。這意味著如果選擇繼續對話,將可能造成隱私泄露;如果選擇保護隱私,將會失去使用權。
再次,大模型在產出結果時,其強大的生成力也讓隱私泄露的方式變得更加多元,用戶隱私獲取將更加容易,而這也將隱私保護變得更加困難。
反饋強化學習是實現對齊的技術途徑
而對齊問題,即引導智能系統的目標和人類價值觀一致,使其符合設計者的利益和預期,不會產生意外的有害后果,是大模型發展過程中的另一大安全問題。
“如果將人工智能的能力比做《西游記》中的孫悟空,那么對齊技術就是唐僧口中的緊箍咒,它可以保證孫悟空不會隨意使用他的能力為所欲為。因此,對齊技術是控制人工智能安全的核心技術。”談及對齊技術的重要作用,何積豐拋出上述比喻。
那么,對齊問題將會帶來哪些安全挑戰?
何積豐表示,對齊的基礎是人類價值觀,而人類價值觀處于動態變化中,且具有多元化特征。這樣的特點可能導致對齊成為一項眼花繚亂的跨學科研究,這不僅考驗技術,也審視著人類不同的文化。
此外,大模型有著“有用性”與“無害性”兩個目標的沖突。在使用大模型的過程中,研發人員無法保證大模型是否會提供“錯誤”觀點,那么要如何糾正這類“錯誤”觀點,就是大模型發展過程中的重要挑戰。
對于這些問題,何積豐指出,反饋強化學習是實現對齊的技術途徑。
反饋技術的第一重含義,即通過反饋給模型不同的“獎勵”信號,來引導其高質量的輸出。但是,每個人喜好不同,這種反饋也可能存在主觀因素,從而影響反饋的客觀性。
第二重含義,是基于給大模型提供明確的原則,使得系統自動訓練模型對所有生成的輸出結果提供初始排序。這樣的反饋可以使得大模型生成效率更高,生成的內容更加透明,每個人都可以看到系統受到什么樣的指令,將會生成怎樣的“答案”。
總體來看,人類與大模型都在進步,人類與機器持續共同學習,將更好地使技術轉化為生產力,服務于經濟社會發展。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP