<cite id="apcyb"></cite>
  1. <dfn id="apcyb"><rp id="apcyb"></rp></dfn>

  2. <cite id="apcyb"><noscript id="apcyb"><address id="apcyb"></address></noscript></cite>

    <tt id="apcyb"></tt>
    每日經濟新聞
    今日報紙

    每經網首頁 > 今日報紙 > 正文

    騰訊混元上線AI生成視頻并全面開源

    每日經濟新聞 2024-12-05 23:57:11

    每經記者 黃婉銀    每經編輯 張海妮    

    12月3日,騰訊混元大模型公布最新進展:正式上線視頻生成能力,這是繼文生文、文生圖、3D生成之后的又一里程碑。與此同時,騰訊開源該視頻生成大模型,參數量130億,是當前最大的視頻開源模型。

    “用戶只需要輸入一段描述,即可生成視頻。”騰訊混元相關負責人透露,目前的生成視頻支持中英文雙語輸入、多種視頻尺寸以及多種視頻清晰度。目前該模型已上線騰訊元寶App,用戶可在AI應用中的“AI視頻”板塊申請試用。企業客戶通過騰訊云提供服務接入,目前API同步開放內測申請。

    《每日經濟新聞》記者從上述負責人處了解到,作為視頻模型,騰訊混元團隊當初在進行設計時,在動作流暢性和大幅度動作上花費了很多心思。另外,現在很多視頻模型有個共同的問題就是在大幅運動的時候會出現畫面抖動,這個難題也是當時其著力解決的事情。

    “我們這次模型是全部開源的,遵從混元結構體系,希望豐富社區,我們的算法模型、加速工程都會開放給社區,包括之后的圖聲視頻、驅動綁定和配樂都會按節奏去做開源?,F在(AI)視頻生成其實差距還比較大,特別是在文生視頻領域,成熟度其實遠沒有到大家想象中那么高。”上述負責人告訴記者,一個月前就已經把視頻生成模型訓練完畢,現在對外發布也是水到渠成。

    目前,騰訊宣布該視頻生成大模型已在Hugging Face平臺及Github上發布,包含模型權重、推理代碼、模型算法等完整模型,可供企業與個人開發者免費使用和開發生態插件。

    自年初以來,騰訊混元系列模型的開源速度不斷加快。此前,騰訊混元已經開源了旗下文生文、文生圖和3D生成大模型。至此,騰訊混元系列大模型已實現全面開源。

    上述負責人補充稱,目前文生視頻仍處于著重進行技術打磨的階段。在此階段推出相關成果,也是期望對外開源,希望與社區一起協作,促使這項技術早日達到像圖像生成那樣真正可用的狀態,當下談論商業化還為時過早。

    如需轉載請與《每日經濟新聞》報社聯系。
    未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

    讀者熱線:4008890008

    特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

    視頻 模型 Ai 騰訊

    歡迎關注每日經濟新聞APP

    每經經濟新聞官方APP

    0

    0

    国产日本精品在线观看_欧美日韩综合精品一区二区三区_97国产精品一区二区三区四区_国产中文字幕六九九九
    <cite id="apcyb"></cite>
    1. <dfn id="apcyb"><rp id="apcyb"></rp></dfn>

    2. <cite id="apcyb"><noscript id="apcyb"><address id="apcyb"></address></noscript></cite>

      <tt id="apcyb"></tt>