• <acronym id="mz9d1"><output id="mz9d1"></output></acronym>

    <sub id="mz9d1"><ol id="mz9d1"><nobr id="mz9d1"></nobr></ol></sub>
        1. <sup id="mz9d1"></sup>
          每日經濟新聞
          要聞

          每經網首頁 > 要聞 > 正文

          DeepSeek放大招!開源“新星”FlashMLA登場:大模型效率革命能否破解“AI芯片荒”?

          每日經濟新聞 2025-02-25 21:17:40

          2月24日,DeepSeek發布首個開源項目FlashMLA,該項目適用于Hopper GPU的高效MLA解碼內核。有觀點認為,目前限制DeepSeek推理的主要瓶頸就是顯存,FlashMLA則是“以算代存”。PPIO派歐云王聞宇指出,DeepSeek模型與其他主流模型相比參數量更大,決定了其需要更大容量顯存以加載模型權重,顯存容量是門檻,不是瓶頸。

          每經記者 朱成祥    每經編輯 魏官紅    

          2月24日上午,DeepSeek(深度求索)發布首個開源項目FlashMLA。根據DeepSeek在GitHub社區披露的信息,FlashMLA是適用于Hopper GPU(一種英偉達圖形處理器架構)的高效MLA(多頭潛注意力)解碼內核,針對可變長度序列服務進行了優化。在H800(一款英偉達芯片)上可以實現每秒處理3000GB(千兆字節)數據,每秒執行580萬億次浮點運算。

          有業內觀點認為,目前限制DeepSeek推理的主要瓶頸就是顯存,FlashMLA則是“以算代存”,可解決推理過程中顯存容量不足的問題。

          對此,PPIO派歐云聯合創始人兼CTO王聞宇告訴《每日經濟新聞》記者:“(該觀點)不完全正確,MLA的本質是在基礎算法上的創新,通過將KV的權重矩陣轉換到潛空間,實現矩陣的大幅壓縮并且不造成精度損失。壓縮算法會引入微弱的計算量的增加,但是由此帶來的數據存儲開銷大幅下降,訓練及推理速度大幅提升,需要計算的數據總量減少了,總計算量反而減少了,相應的訓練和推理速度就會大幅提高。”

          顯存容量成門檻

          當下,外界普遍使用顯存來測算部署DeepSeek各類模型所需要的推理算力。比如根據民生證券研報,像DeepSeek-R1一個專注于實時推理的優化版本,擁有15B參數,推理時激活全部15B參數,顯存需求約為30GB(FP16精度),單張NVIDIA A100(英偉達顯卡)或單張RTX 4090(英偉達消費級顯卡)等顯卡可滿足需求。

          像DeepSeek 67B是一個擁有67B參數的大型模型,推理時激活全部67B參數,顯存需求約為140GB(FP16精度)。推薦使用4張A100-80G GPU進行多卡并行推理。

          照此計算,DeepSeek R1“滿血版”擁有671B參數,在FP16精度下,需要1.4TB(太字節)顯存;在FP8精度下,也需要約700GB顯存。如果按照一個服務器8張卡計算,單卡80GB的8卡服務器滿足不了“滿血版”的推理工作,可能需要多個服務器互連。

          關于顯存是否為限制DeepSeek推理的主要瓶頸,王聞宇認為:“DeepSeek模型與其他主流模型相比,參數量更大,決定了其需要更大容量顯存以加載模型權重,顯存容量是門檻,不是瓶頸。”

          那么,參數量小得多的蒸餾模型是否滿足應用需求?王聞宇表示:“蒸餾版本與滿血版本相比,參數量少很多,比如Qwen-7B,只有滿血版671B的百分之一,參數量少,導致在模型性能上遠弱于滿血版,如何選擇模型取決于實際的應用場景,要求高的場景可能無法用蒸餾版本來滿足。”

          一位不愿具名的算力芯片廠商高管對《每日經濟新聞》記者表示:“AI行業從業者,不管是哪個環節的,包括模型公司、AI芯片公司等,都是圍繞一個三角形來做的,三角形的三個角分別是提高價值,提高或者保持用戶體驗,維持或者降低使用成本??提高價值就是要能解決更多問題,能解決更難的問題;模型規模起來后,一般來說會降低用戶體驗、提高成本??所以大家都在這個三角形中螺旋式地往上爬。”

          圖片來源:受訪對象提供

          大模型效率革命?

          而FlashMLA,正是在大模型規模變大、能力變強后,在不降低用戶體驗的基礎上降低成本。

          根據民生證券研報,傳統計算方式存在KV(鍵值)矩陣重復計算的問題,這不僅浪費了大量的計算資源,還會導致顯存消耗過大,影響模型的運行效率。而MLA技術解決了這個難題,它通過獨特的算法設計,減少了對KV矩陣的重復計算,大大降低了顯存的消耗。

          需要注意的是,目前FlashMLA適配的是英偉達Hopper架構的GPU。若FlashMLA在CUDA生態大幅減少對顯存的占用,那么未來應用到國內算力芯片領域,是否有助于“推理平價”,降低推理成本,推動國產算力芯片在推理領域的使用?

          沐曦工作人員反饋:“這一周大家都忙著DeepSeek開源周的適配。”另據沐曦官方微信號:“沐曦技術團隊在FlashMLA開源后迅速響應,僅用2小時即完成與沐曦GPU的適配工作,并于當日將代碼提交至開源社區。”

          此外,沐曦方面也表示:“FlashMLA通過MLA解碼優化與分頁KV緩存技術等顯著提升硬件利用率,可加速大語言模型解碼過程,有效提升響應速度與吞吐量,尤其適用于聊天機器人等實時生成場景。沐曦在適配中應用矩陣吸收算法將低秩投影融入Flash Attention 2核函數,在保證計算效率的同時顯著降低顯存占用。”

          PPIO派歐云王聞宇也表示:“FlashMLA對國內算力芯片具有很大的借鑒價值,通過技術創新,將FlashMLA移植到國內算力芯片上,也可以實現類似CUDA中的減少顯存占用和加速效果。”

          事實上,除了通過算法領域的進步來減少顯存占用,也可以從芯片設計角度出發,通過定制化的芯片來增加顯存。

          上述算力芯片公司高管稱:“核心問題是HBM(高帶寬存儲)每GB是DDR(雙倍速率同步動態隨機存儲器)的5x(5倍)價錢,用HBM來存所有權重不劃算。”

          其給出的解決辦法是多級存儲。他表示:“需要模型來進一步改造,我認為比較理想的軟硬件,在未來應該是兩級或者多級存儲的,比如HBM和DDR都上,HBM更快,DDR更大,所以整個模型都存更大的DDR里面,就像DeepSeek論文里面寫的,他們每10分鐘刷新一批redundant expert(冗余專家),這批可以放在HBM里面,用戶用的時候,大概率從這個redundant expert里面取expert,這樣就可以既便宜又快了。”

          關于MoE結構對算力硬件需求的變化,中金研報認為,可能帶來對處理器架構進一步的定制化需求,如更大的計算單元、和更高效的通信kernel(內核)相匹配的設計單元、近存計算單元等,利好DSA(領域專用架構)架構發展。

          封面圖片來源:視覺中國-VCG41N1350722136

          如需轉載請與《每日經濟新聞》報社聯系。
          未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

          讀者熱線:4008890008

          特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

          模型 DeepSeek AI芯片 芯片

          歡迎關注每日經濟新聞APP

          每經經濟新聞官方APP

          0

          0

          国产日本精品在线观看_欧美日韩综合精品一区二区三区_97国产精品一区二区三区四区_国产中文字幕六九九九
        2. <acronym id="mz9d1"><output id="mz9d1"></output></acronym>

          <sub id="mz9d1"><ol id="mz9d1"><nobr id="mz9d1"></nobr></ol></sub>
              1. <sup id="mz9d1"></sup>
                五月天在线播放综合网 | 丝袜美腿一区二区三区 | 日韩精品日韩字幕亚洲区 | 中文字幕欧美在线 | 日韩乱偷中文字幕 | 中文字幕一区2区3区乱码在线 |