<cite id="apcyb"></cite>
  1. <dfn id="apcyb"><rp id="apcyb"></rp></dfn>

  2. <cite id="apcyb"><noscript id="apcyb"><address id="apcyb"></address></noscript></cite>

    <tt id="apcyb"></tt>
    每日經濟新聞
    今日報紙

    每經網首頁 > 今日報紙 > 正文

    英偉達深夜發“重磅” 預計明年推出Blackwell Ultra AI芯片

    每日經濟新聞 2024-06-04 00:16:15

    每經記者 楊卉    每經編輯 陳俊杰    

    6月2日晚間,英偉達創始人兼首席執行官黃仁勛登臺演講,透露了不少關鍵信息。據他介紹,使用NVIDIA NIM將AI模型部署在云、數據中心或工作站上的開發者,可將模型部署時間從以前的數周縮短至幾分鐘。和碩、勞氏公司、西門子等客戶均在使用。

    視覺中國

    此外,被英偉達寄予厚望的新一代AI芯片與超級計算平臺Blackwell芯片已開始投產,預計將在2025年推出Blackwell Ultra AI芯片。

    據悉,英偉達的第一款Blackwell芯片名為GB200,宣稱是目前“全球最強大的芯片”。目前,供應鏈對GB200寄予厚望,預估2025年出貨量有機會突破百萬顆,將占英偉達高端GPU出貨量的近40%~50%。

    NIM大幅加快模型部署

    6月2日晚間,一身皮衣的黃仁勛又在舞臺上擺弄起了自家產品,重磅介紹了NVIDIA NIM,一種推理微服務,可通過經優化的容器形式提供模型,旨在助力各種規模企業部署AI服務。

    不過,嚴格來說,NVIDIA NIM并非新品,最早露面是在今年3月。英偉達在6月2日晚間宣布,全球2800萬開發者皆可下載NVIDIA NIM,將AI模型部署在云、數據中心或工作站上,構建Copilot(微軟的AI助理)、ChatGPT聊天機器人等生成式AI應用。下月起,NVIDIA開發者計劃的會員可免費使用NIM,在其選擇的基礎設施上進行研究、開發和測試。

    根據英偉達的說法,新的生成式AI應用正變得越來越復雜,通常需要使用具有不同功能的多個模型來生成文本,如圖像、視頻、語音等。而NVIDIA NIM提供了一種簡單、標準化的方式,將生成式AI添加到應用中,可使模型部署時間從以前的數周縮短至幾分鐘。

    黃仁勛還透露,包括Cadence、 Cloudera、 Cohesity、DataStax、NetApp、Scale AI和新思科技等在內的近200家技術合作伙伴正在將NIM集成到他們的平臺中,以加快生成式AI的部署。“每個企業都希望在其運營中融入生成式AI,但并非每個企業都擁有專門的AI研究團隊。NVIDIA NIM可被集成到任意平臺中,任何地方的開發者都可以訪問,并且可以在任意環境中運行。”黃仁勛稱。

    《每日經濟新聞》記者了解到,NIM是預先構建的,目前有近40個模型可作為NIM的端點供開發者體驗;開發人員可從開源社區平臺Hugging Face訪問適用于Meta Llama 3模型的NVIDIA NIM微服務,使用Hugging Face推理端點訪問和運行Llama 3 NIM。

    值得注意的是,英偉達還透露了一批大客戶的使用情況,如電子制造商Foxconn正在使用NIM開發針對特定領域的大語言模型(LLM),用于智能制造、智慧城市和智能電動汽車;和碩正在將NIM用于一個當地的混合專家(MoE)模型;勞氏公司正在用NVIDIA NIM推理微服務來提升員工和客戶的體驗;西門子正在將其運營技術與NIM微服務整合,用于車間AI工作負載;還有數十家醫療保健公司正在部署NIM,為包括手術規劃、數字助理、藥物發現和臨床試驗優化等在內的應用領域的生成式AI推理提供支持。

    Blackwell開始投產

    除了上述產品,黃仁勛還在演講中透露,英偉達Blackwell芯片已開始投產,并將在2025年推出Blackwell Ultra AI芯片。

    今年5月,黃仁勛在財報電話會上稱,預計今年Blackwell架構芯片將為公司帶來大量收入。英偉達對Blackwell芯片寄予厚望,還是與市場強勁需求有關。從最新披露的財報數據來看,2025財年第一財季,英偉達實現營收260億美元,較上年同期增長262%。其中,數據中心業務營收226億美元,與上年同期相比增長427%,是業績收入的“大頭”。

    據英偉達首席財務官科萊特·克雷斯(Colette Kress)解讀,數據中心業務的增長源自Hopper架構GPU(例如H100)出貨量的增加;該季度的重要亮點之一就是Meta宣布推出Llama 3 開源大模型,使用了近2.4萬塊H100GPU。

    除了披露芯片量產進度,英偉達此次還推出了一系列采用NVIDIA Blackwell架構的系統。

    據悉,這些系統搭載了Grace CPU以及NVIDIA網絡和基礎設施,用于助力企業建立AI工廠和數據中心。其中,NVIDIA MGX模塊化參考設計平臺加入了對NVIDIA Blackwell產品的支持,包括專為主流大語言模型推理、檢索增強生成和數據處理提供卓 越 性 能 打 造 的 NVIDIA GB200 NVL2平臺。

    英偉達強調,GB200 NVL2適合用于數據分析等新興領域,借助NVLink—C2C互連技術帶來的帶寬內存性能及Blackwell架構中專有的解壓縮引擎,較使用X86CPU時的數據處理速度可最多提速到18倍,能效提高8倍。“新一輪工業革命已經開始,眾多企業和地區正在與NVIDIA合作推動價值萬億美元的傳統數據中心向加速計算轉型,并建造一種新型數據中心AI工廠來生產新的商品,人工智能。”黃仁勛稱。

    英偉達方面表示,目前已有超過25家合作伙伴的90多套已發布或正在開發中的系統使用了MGX參考架構,開發成本較之前最多降低了四分之三,開發時間縮短到六個月,較之前減少了三分之二。另外,英偉達還透露,比亞迪電子、西門子、泰瑞達和Alphabet旗下公司Intrinsic等全球10多家機器人企業正在將NVIDIA Isaac加速庫、基于物理學的仿真和AI模型集成到其軟件框架和機器人模型中,以此提高工廠、倉庫和配送中心的工作效率。

    封面圖片來源:視覺中國

    如需轉載請與《每日經濟新聞》報社聯系。
    未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

    讀者熱線:4008890008

    特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

    Ai 英偉達 AI芯片

    歡迎關注每日經濟新聞APP

    每經經濟新聞官方APP

    0

    0

    国产日本精品在线观看_欧美日韩综合精品一区二区三区_97国产精品一区二区三区四区_国产中文字幕六九九九
    <cite id="apcyb"></cite>
    1. <dfn id="apcyb"><rp id="apcyb"></rp></dfn>

    2. <cite id="apcyb"><noscript id="apcyb"><address id="apcyb"></address></noscript></cite>

      <tt id="apcyb"></tt>