<cite id="apcyb"></cite>
  1. <dfn id="apcyb"><rp id="apcyb"></rp></dfn>

  2. <cite id="apcyb"><noscript id="apcyb"><address id="apcyb"></address></noscript></cite>

    <tt id="apcyb"></tt>
    每日經濟新聞
    要聞

    每經網首頁 > 要聞 > 正文

    阿里云通義開源長文本模型及推理框架 百萬Tokens處理速度提升近7倍

    每日經濟新聞 2025-01-27 11:17:07

    每經記者 葉曉丹    每經編輯 張海妮    

    1月27日凌晨,阿里云通義開源支持100萬Tokens上下文的Qwen2.5-1M模型,推出7B及14B兩個尺寸,均在處理長文本任務中穩定超越GPT-4o-mini;同時開源推理框架,在處理百萬級別長文本輸入時可實現近7倍的提速。

    百萬Tokens長文本,可換算成10本長篇小說、150小時演講稿或3萬行代碼。兩個月前,Qwen2.5-Turbo升級了百萬Tokens的上下文輸入能力。如今,開源社區可基于全新的Qwen2.5-1M系列模型,進行長篇小說或多篇學術論文的解析,或是探索倉庫級代碼的分析和升級。

    如需轉載請與《每日經濟新聞》報社聯系。
    未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

    讀者熱線:4008890008

    特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

    開源 模型 阿里云

    歡迎關注每日經濟新聞APP

    每經經濟新聞官方APP

    0

    0

    国产日本精品在线观看_欧美日韩综合精品一区二区三区_97国产精品一区二区三区四区_国产中文字幕六九九九
    <cite id="apcyb"></cite>
    1. <dfn id="apcyb"><rp id="apcyb"></rp></dfn>

    2. <cite id="apcyb"><noscript id="apcyb"><address id="apcyb"></address></noscript></cite>

      <tt id="apcyb"></tt>