每日經濟新聞 2024-02-27 21:56:28
每經記者 陳婷 楊昕怡 每經編輯 劉雪梅
當OpenAI的文生視頻模型Sora給世界帶來新一波的沖擊時,國內對人工智能領域的投資熱情也再次被點燃。
2024年初,有市場消息稱,AI創業公司“月之暗面”已完成新一輪超過10億美元融資,投資方包括紅杉中國、小紅書、阿里,老股東跟投。美團也曾參與該公司上一輪融資。本輪融資后,月之暗面估值達到25億美元。
公司微信公眾號
若以10億美元的融資規模來計,該輪融資是自ChatGPT掀起人工智能熱潮后,國內AI大模型公司迄今獲得的單輪最大金額融資。
月之暗面現已推出的產品Kimi智能助手,正是以領先的長文本處理能力受到外界和資本的關注。未來,月之暗面還想在大模型領域做出To C的超級應用。
這家創業公司未滿周歲
很難想象,作為國內AI領域最大單筆融資的獲得者,這家創業公司還未滿一周歲。
2023年3月1日,年輕的“天才AI科學家”楊植麟創辦了他的第二家AI公司月之暗面。
2015年從清華大學計算機系畢業后,楊植麟前往美國卡內基-梅隆大學攻讀博士,師從蘋果AI研究負責人Ruslan Salakhutdinov和谷歌首席科學家William Cohen,并與多位圖靈獎得主合作發表論文。
月之暗面向《每日經濟新聞》記者介紹,楊植麟是Transformer-XL與XLNet兩篇重要論文的第一作者,兩者均為大語言模型領域的核心技術。同時,他也是中國35歲以下NLP(自然語言處理)領域引用最高的研究者。
記者從業內人士處了解到,2016年,楊植麟曾參與創立循環智能(Recurrent AI),2021年12月,循環智能宣布完成由博裕投資和紅杉中國聯合領投的3800萬美元新一輪融資,老股東金沙江創投、靖亞資本、真格基金、萬物資本等跟投。媒體報道顯示,循環智能的技術團隊曾與華為云聯合發布了國內首個千億中文語言模型“盤古NLP大模型”。
此外,月之暗面的兩位聯合創始人周昕宇和吳育昕也均出身清華大學,擁有Meta、曠視科技等知名科技公司的工作經驗。
關于現有團隊規模,月之暗面方面表示,目前團隊超過80人,其中大部分是技術人員,囊括了NLP、CV(計算機視覺)、RL(強化學習)、Infra(基礎架構)方面的新生代人才。
英諾天使基金合伙人王晟在接受記者采訪時表示,對于早期投資的AI項目,考察的核心因素是團隊,“我們對項目的收入、利潤沒有什么要求,最重要的本質還是人”。
考慮到月之暗面的核心成員參 與 過 Google Gemini、Google Bard、盤古NLP、悟道等大模型的研發項目,它成為資本的爭搶對象也就不奇怪了。
有大模型創業公司CTO(首席技術官)對記者表示,早在楊植麟創立循環智能和研發華為盤古模型的時候,便對其團隊有所關注。
為何另辟蹊徑定位To C
除了“頂配”創業團隊,月之暗面也交出了外界看來還算出色的研發答卷。
2023年10月,月之暗面推出首款大模型產品Kimi智能助手。月之暗面方面介紹,與其他大模型產品相比,該產品的主要技術優勢在于超長的無損上下文處理能力和卓越的指令遵循能力。
據了解,Kimi智能助手支持輸入20萬漢字,按OpenAI的計算標準約為40萬token(模型可以理解和生成的最小意義單位),是彼時全球大模型產品中所能支持的最長上下文輸入長度。同期大模型Claude支持的最大長文本為10萬token。
“在投資機構和大廠的內部綜合評測中,Kimi智能助手的中文實力直追OpenAI,在理解和生成中文內容方面表現出色。”月之暗面方面向記者強調了該產品的中文處理能力優勢。
“AI產品榜(aicpb。com)”統計的數據顯示,Kimi智能助手在2024年1月的訪問量達142萬,在大模型創業公司的“AI ChatBots”產品中居于首位,月環比增長率為94.1%,增長速度也在大模型創業公司中排名第一。
不同于大多數大模型公司選擇做B端產品,Kimi智能助手的定位關鍵詞之一是“to C”。
為什么選擇做To C領域,月之暗面向《每日經濟新聞》記者解釋,因為模型的能力還在快速迭代中,國內市場的B端產品往往需要私有化部署和定制化開發,而基于現有模型的某個版本做私有化部署和定制化的開發,將會導致B端產品的能力和用戶體驗完全跟不上模型能力的快速提升,很快就會被淘汰,最終浪費大量的人力、物力和財力資源。
王晟也對記者表示,投資人2023年都在投資算力、芯片等基礎設施,2024年會更關注AI能力的大幅度增長和成本的下降,應用端也會有機會開始出現,尤其是Agent(智能體),“因為Agent是和過去移動互聯網完全不一樣的東西,大家會率先開始在Agent中找相關的應用落地。”
好技術如何變成好生意?
技術突破造就ChatGPT一炮而紅,對于以技術為主打的創業公司而言,技術始終是其能否保持長期領先優勢的關鍵。
長文本是月之暗面選擇的突破方向。楊植麟在2023年11月的一次外部演講中認為,如今基于Transformer架構的大模型,是“新時代的計算機”,參數數量決定計算復雜度,上下文長度決定內存大小——因此,上下文長度是毫無疑問的關鍵所在。他認為,規?;峭ㄏ駻GI(通用人工智能)的核心,而隨著模型不斷迭代,長文本會逐漸取代微調,成為定制模型的關鍵技術。
月之暗面也對《每日經濟新聞》記者表示,通往通用人工智能(AGI)(的發展中),長上下文(long-context)會是一個很重要的點。在其看來,某種程度上看,所有問題都是上下文長度問題。
那么,Kimi智能助手支持20萬漢字的長文本輸入,主打無損記憶。這一突破究竟有多難?
上述大模型創業公司CTO對記者表示,月之暗面對文本長度的突破有一定難度,但途徑也有多種,較成熟的有位置編碼的外拓,或者工程上的切片召回策略等。他表示,具體到月之暗面,由于沒有披露這塊細節,暫時無法得知其實現方法。
北京市社會科學院管理研究所副研究員王鵬對記者表示,支持超過20萬字的長文本輸入在技術上確實是一個挑戰,但是否算作重大突破,要取決于具體應用場景。例如,在處理長篇小說、歷史文檔或復雜的法律文件時,能夠處理如此長的文本輸入將大大提高AI的理解和分析能力。“這要求模型不僅要有強大的計算能力,還需要有優秀的內存管理能力來保持對長文本的連貫理解。”
深度科技研究院院長張孝榮對記者表示,支持超過20萬字的長文本輸入確實可以算是一個技術上的突破。在自然語言處理領域,處理長文本一直是一個挑戰,長文本需要大模型有更強的“記憶”能力。當大模型有了這種長文本能力,才能更方便地處理小說、財報等。大模型能夠處理長文本輸入,可以帶來多方面的影響。首先,這可以提高自然語言處理的準確性和效率,使得模型能夠更好地理解和生成自然語言文本。其次,這也為一些需要處理大量文本數據的任務提供了可能,比如文獻分析、文本挖掘等。
此外,長文本處理技術的發展,還可以推動自然語言處理在其他領域的應用。
當創業公司以技術馳名,注定它需要面對保持技術領先性的壓力。與此同時,好技術如何變成好生意,同樣是一個需要在探索中回答的難題。對于月之暗面而言,完成迅速崛起不過是萬里跋涉第一步。
封面圖片來源:公司微信公眾號
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP