每日經濟新聞 2023-06-12 22:11:45
每經記者 李少婷 每經編輯 張海妮
6月10日下午,在2023北京智源大會“AI安全與對齊”專題論壇上,圖靈獎得主、“深度學習之父”Geoffrey Hinton在閉幕演講的最后向與會者發問。
大模型時代,如何確保越發強大和通用的人工智能系統安全可控,且符合人類意圖和價值觀?這一安全問題又被稱為“人機對齊”,或是本世紀人類社會面臨的最緊迫和最有意義的科學挑戰之一。
Hinton在演講中指出,他的研究使他相信,超級智能的到來比他想象中更接近,在此過程中,數字智能可能會追求更多控制權,甚至通過“欺騙”控制人類,人類社會也可能會因此面臨更多問題。
大型模型目前學習效率低
Hinton介紹,為了能夠以更低的能量運行大型語言模型等任務,他開始研究“有限計算”。
這一計算方法可以通過使用模擬硬件更便宜地完成計算任務,但第一個主要問題是,學習過程必須利用其運行的硬件部件的特定模擬特性,而我們并不確切知道這些特性是什么——到目前為止,我們還沒有找到一個真正好用的學習方案,可以充分利用模擬屬性,但我們有一個可以接受的學習算法,足以很好地學習諸如小規模任務和一些較大任務(如ImageNet),但效果并不太好。
“有限計算”的第二個重大問題是其有限性。當特定的硬件設備失效時,所有學到的知識也會隨之喪失,因為知識和硬件細節密切相連。解決這個問題的最佳方案是在硬件設備失效之前,將知識從教師傳授給學生。
Hinton和杰夫·迪恩一起研究了“蒸餾”方法,這一方法有一個特殊屬性,那就是當訓練學生模型使用教師的概率時,訓練學生模型以與教師相同的方式進行概括,即通過給錯誤答案賦予較小的概率來進行概括。那么,一個智能體群體如何共享知識?Hinton表示,事實證明,社區內部的知識共享方式決定了計算過程中的許多其他因素。
使用數字模型和數字智能可以擁有一大群使用完全相同權重的智能體,并以完全相同的方式使用這些權重。這意味著,可以讓這些智能體對不同的訓練數據片段進行觀察和計算,為權重計算出梯度,然后將它們的梯度進行平均。
現在,每個模型都從它所觀察到的數據中學習。這意味著,可以通過讓不同的模型副本觀察不同的數據片段,獲得大量的數據觀察能力。它們可以通過共享梯度或權重來高效地分享所學的知識。
如果有一個擁有萬億個權重的模型,那意味著每次分享時可以獲得數萬億比特的帶寬。但這樣做的代價是,必須擁有行為完全相同的數字智能體,并且它們以完全相同的方式使用權重。這在制造和運行方面都非常昂貴,無論是成本還是能源消耗方面。
一種替代權重共享的方法是使用“蒸餾”的方法,但這種方式共享知識并不高效。
智能體尚不具備進化能力
Hinton指出,盡管蒸餾的過程很慢,但當它們從我們這里學習時,它們正在學習非常抽象的東西。在過去幾千年里,人類對世界的認識有了很多進展?,F在,這些數字智能體正在利用的是我們能夠用語言表達出來的我們對世界所了解的一切。因此,它們可以捕捉到人類在過去幾千年中通過文件記錄的所有知識。但每個數字智能體的帶寬仍然相當有限,因為它們是通過學習文檔來獲取知識的。
而如果它們能夠通過建模視頻等無監督的方式進行學習,那將是非常高效的。而如果它們能夠操作物理世界,例如擁有機器手臂等,那也會有所幫助,“但我相信,一旦這些數字智能體開始這樣做,它們將能夠比人類學習更多,并且學習速度相當快”。
Hinton的觀點是,超級智能可能會比過去所認為的發生得更快。而要使數字智能更高效,我們需要允許它們制定一些目標,但這里存在一個明顯的問題——擁有更多控制權會使得實現目標變得更容易,但很難想象,我們如何才能阻止數字智能為了實現其它目標而努力獲取更多控制權。
一旦數字智能開始追求更多控制權,我們可能會面臨更多問題。“這種操作令人感到害怕,因為我也不知道如何來阻止這樣的行為發生,所以我希望年輕一代的研究人員,可以找出一些更智能的辦法,來阻止這種通過欺騙實現控制的行為。”Hinton說。
Hinton認為,盡管人類在這個問題上目前還沒有什么好的解決方案,但好在這些智能物種都是人打造的,而非通過進化迭代而來,這可能是人類目前具備的微弱優勢,恰恰是因為沒有進化能力,它們才不具備人類的競爭、攻擊性的特點。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP