每日經濟新聞 2024-09-14 22:11:51
每經編輯 張錦河 每經實習編輯 宋欣悅
9月13日,OpenAI宣布了o1系列模型的正式亮相,標志著AI領域邁入了一個全新的紀元,迎來了能夠執行通用復雜推理任務的大模型時代。模型發布后,OpenAI研究團隊在X社交平臺上舉辦了一場AMA(Ask Me Anything)活動,深度揭秘了o1系列模型的諸多細節。
OpenAI表示,o1系列包括兩個版本:作為完整模型早期迭代的o1-preview,以及速度更快的輕量級o1-mini。與之前的模型不同,o1能夠在給出最終答案前生成長鏈的隱藏思維過程,展現了類似人類的推理能力。研究人員將o1比喻為擁有超能力的“外星人”。
在推理過程中,o1使用了強化學習來實現“推理”這一性能。盡管目前沒有計劃向API用戶或ChatGPT展示這些思維鏈token,但研究人員透露,嵌入提示中的指令可以影響o1的思維方式。相比之下,GPT-4o無法通過提示達到o1的思維鏈性能水平。
o1系列模型使用與GPT-4o相同的分詞器,在輸入token上保持一致。不過,o1能夠處理更長、更開放的任務,減少了對輸入分塊的需求。未來,o1還將支持更大的輸入上下文窗口。
o1還展現了令人印象深刻的推理和泛化能力,例如破譯密碼、思考哲學問題以及通過自我測驗來評估自身能力。
研究團隊還透露,o1-preview在某些個性化寫作任務上的表現與GPT-4o相當或略勝一籌。
與o1-preview相比,o1-mini在體積和速度上進行了優化。
盡管在像世界知識這樣的某些領域可能有局限,但o1-mini在STEM(科學、技術、工程、數學)任務以及代碼相關任務上展現出了其優勢。此外,o1-mini能夠探索比o1-preview更多的思維鏈。
盡管o1-preview目前尚未使用工具,但OpenAI計劃為其加入功能調用、代碼解釋器和網頁瀏覽等能力。工具支持、結構化輸出和系統提示也將在未來的更新中推出。
此外,OpenAI開發者團隊表示,未來用戶將有望能夠控制o1的思考時間以及token限制,并承諾將積極推進這一功能的實現。
OpenAI還在積極推進流式傳輸支持和API中的推理進度反饋。此外,o1已經內置了多模態能力,有望在多模態理解任務(MMLU)上達到最先進的水平。
o1-mini目前對ChatGPT Plus用戶開放,但有每周50次的提示限制,所有提示都計入相同的配額。OpenAI承諾,未來將逐步提高API訪問級別和速率限制,并在限制放寬后提供批量定價優惠。
o1模型的定價預計將遵循每1-2年降價的趨勢。此外,個性化微調支持已在產品路線圖中,但具體發布時間表尚不明確。
o1-mini目前使用截至2023年10月的數據進行訓練,未來的迭代將使用更新的數據集來擴充其世界知識。
為了充分發揮o1的推理優勢,團隊建議用戶在設計提示時提供信息豐富、涵蓋邊緣案例的具體示例,并明確指定所需的推理步驟和風格。但要注意,無關的上下文可能會干擾模型的推理過程。
每日經濟新聞綜合自公開消息
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP