每日經濟新聞 2025-01-01 22:34:31
每經記者 宋欣悅 每經編輯 高 涵
近日,“推遲”“質疑”“未達預期”這類詞語頻繁出現在人工智能(AI)行業的討論和報道中。被眾人期待“炸場”的OpenAI連續12天的AI發布會細細品來也少了些“革命性”的味道,更像是在已有成果上的修修補補。
此前,OpenAI的聯合創始人伊爾亞·蘇茨克維就曾在多個場合提到,AI的進步并不是線性的,未來幾年內,盡管有大量資金和研究投入,技術突破的速度可能會有所放緩。
AI發展速度真的在放緩嗎?AI發展面臨著哪些挑戰?我們距離通用人工智能(AGI)還有多遠?針對這些熱點問題,《每日經濟新聞》記者(以下簡稱NBD)專訪了復旦大學計算機學院副教授、博士生導師鄭驍慶。
鄭驍慶認為,從速度來講,AI發展并沒有放緩,但目前AI發展面臨著三大核心挑戰:AI“幻覺”現象、數據隱私、算力和能源效率。在他看來,當前的AI技術依然處于“高級別模仿”的階段,離真正的AGI還有一段距離。“AGI不僅需要在認知能力、學習能力等方面超越現有技術,還需在情感理解和自主決策等領域有所突破。”
AI發展并未減速,但仍面臨三大挑戰
NBD:在您看來,近期AI的發展速度相比過去兩年,有怎樣的變化?
鄭驍慶:我認為,人工智能的發展速度并沒有放緩。
新一輪生成式人工智能的標志性工作,實際上就是OpenAI在2022年底推出的ChatGPT。這樣一個突破性的事件,距今僅有兩年左右的時間。在這段時間里,ChatGPT的成功使得整個學術界和產學界投入了大量的人力和物力來推動生成式人工智能的發展。
不能說當前人工智能技術的發展變慢了,實際上,它仍在加速前進。當然,在發展的過程中,我們不可避免地會遇到一些問題和新的挑戰,這些都是目前確實存在的。
NBD:目前人工智能面臨哪些重大挑戰?
鄭驍慶:因為我的研究工作重要集中在自然語言處理和機器學習方面,所以我從這個領域來談。
首先,當前大型語言模型面臨的一個主要問題是“幻覺”現象,即模型可能會生成看似正確但實際上錯誤的信息。因為許多用戶并不具備鑒別信息真偽的能力,所以很容易被這種“幻覺”影響。特別是在醫學、法律、金融等高風險應用領域中,存在一定風險。
其次,大模型高度依賴大數據。實際上,包括OpenAI在內的AI公司,在訓練模型時,也并未透露其使用了哪些數據。因為這些數據多多少少會涉及版權或個人隱私。這種問題不僅存在于模型的構建和訓練過程中,在用戶在使用大模型時,也可能泄露個人信息。因此,數據的隱私問題是另一個重大挑戰。
最后,AI大模型的算力消耗巨大,資源成本高昂。如何降低使用門檻,讓更多用戶特別是中小企業能夠負擔得起人工智能技術,是我們需要思考的問題。在巨大的計算和能源消耗情況下,如何實現更高效、更節能的AI系統,可能成為未來的發展方向。
數據最小化:只取所需,不要貪多
NBD:您認為有哪些關鍵技術可能會去解決或者緩解這些挑戰呢?
鄭驍慶:要緩解“幻覺”問題,一種策略是“對齊”。目前,較為成熟的技術手段是利用強化學習來實現與人類偏好的對齊。在對齊人類偏好的過程中,一個核心標準是“誠實性”,即模型必須提供真實信息,而非胡編亂造。
另外,“檢索增強生成”(RAG)也是一項關鍵技術。在提問時先提供相關的背景資料,模型會通過檢索這些資料來輔助生成答案,這樣可以在一定程度上提高生成答案的準確性和可信度,緩解單純依賴模型內部知識庫可能產生的“幻覺”問題。
還有一種技術是答案生成的后續驗證。模型生成答案后,我們可以利用其他模型對答案中的關鍵觀點和要素進行驗證,以確保正確性。
對于數據隱私問題,高質量的數據是高質量應用的基礎,我認為企業需要找到創新與數據隱私之間的平衡點。首先,企業需要遵循數據最小化原則,只收集和使用與目標任務直接相關的最少量的數據,只取所需,而不要貪多。
其次,企業一定要做好數據的加密和脫敏處理。尤其是在AI應用中,模型的訓練數據如果沒有保護好,攻擊者可能通過模型推測出隱私信息,進而對企業和用戶帶來巨大的安全隱患。
我們還可以考慮使用新技術來解決這個問題,比如聯邦學習,它允許多個數據擁有者各自貢獻出模型所需的訓練數據,在數據聯邦的情況下完成模型的訓練,而不會泄露數據擁有者的數據。
AI處于“高級別模仿”階段 不具備“小樣本學習”能力
NBD:近日,OpenAI首席執行官薩姆·阿爾特曼在接受媒體采訪時表示,預計通用人工智能(AGI)將在2025年到來。在您看來,我們離AGI近了嗎?
鄭驍慶:阿爾特曼作為OpenAI的首席執行官,從商業的角度來說,他對于AGI的實現可能會比較樂觀。但對于我們研究者來講,我持一定的保留意見。
當前的AI技術,實質上仍是一種高級別的模仿,與人類的智能完全不一樣。人類的智能,舉個例子,我們從小就能流利地使用語言,并產生語言的新表達。但實際上,我們在成長過程中接觸到語言環境的數據量,遠遠小于當前人工智能模型接觸到的數據量。也就是說,人類大腦具有一種強大的小樣本學習能力,即僅憑少量樣本,就能泛化到未見過的情境,而這是目前模型無法做到的。
目前,關于AGI還存在一個爭議:AGI是要做仿真(按照人腦思路來做),還是按照實用主義的思路來做?具體而言,仿真路徑主張在深入理解和模擬人腦機制的基礎上構建人工智能系統;而實用主義路徑則更加注重結果,認為只要人工智能系統的輸出效果與人類相當,就可以認為其具備智能。
現在的發展主要是在走實用主義的道路,而這條發展路徑面臨的最大的問題在于,盡管AI在某些單一任務上可能表現非常優異,但要從一個任務遷移到另一個任務,尤其是面對全新任務時,往往需要大量的新數據重新進行訓練。比如,我們教會AI文字表達,它的語音處理能力可能就不理想;而教會它語音,它的文字表達能力又可能受到影響。因此,在處理涉及多種數據形式(如文本、圖像、音頻)的跨模態任務時,AI的表現仍然不夠出色。
人類智能完全不同,人類能夠依靠在其他任務中積累的經驗,在新任務上同樣表現出色。即使面對未知的任務,人類也能規劃出探索和研究的路徑,從而順利完成任務。因此,我認為通用人工智能必須具備通用性和遷移性。這種通用性遷移性意味著,一旦AI在某個任務上學會某項技能或知識,它應該能夠將其遷移到各種不同類型的任務上。
另外一個值得探討的概念是,元學習(Meta Learning)。之所以提及元學習,是因為當前AI,包括ChatGPT在內,存在一個顯著的問題:推理能力不足。元學習是一種更高層次的學習方法,它關注的是“學會如何學習”(learning to learn),而不僅僅是學習什么。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP