18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

準確性超Moshi和GLM-4-Voice,端到端語音雙工模型Freeze-Omni

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:智能感知與物聯(lián)網(wǎng)技術(shù)研 ? 2024-12-17 10:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

GPT-4o 提供的全雙工語音對話帶來了一股研究熱潮,目前諸多工作開始研究如何利用 LLM 來實現(xiàn)端到端的語音到語音(Speech-to-Speech)對話能力,但是目前大部分開源方案存在以下兩個問題:

LLM 災(zāi)難性遺忘:由于現(xiàn)有方案在語音模態(tài)與 LLM 進行對齊時,會或多或少對 LLM 進行微調(diào),但由于要采集到與 LLM 本身訓(xùn)練的文本數(shù)據(jù)同等量級的語音數(shù)據(jù)是非常困難的,所以這一微調(diào)過程往往會導(dǎo)致 LLM 出現(xiàn)遺忘現(xiàn)象,造成 LLM 的聰明度下降

語音問答(Spoken Question Answering)任務(wù)的評估:多數(shù)工作對于語音問答的準確性并沒有進行定量評估,從已有的一些評估結(jié)果也可以看出同一模型語音問答和文本問答相比準確性會有明顯的差距

針對上述這些問題,近日騰訊&西工大&南大的研究人員提出了一種低延遲的端到端語音雙工對話模型 Freeze-Omni(VITA 大模型系列第二個工作),其可以在完全凍結(jié) LLM 的情況下,為 LLM 接入語音輸入和輸出,使其能夠支持端到端的語音對話能力,且通過一系列優(yōu)化使得其具備低延遲的雙工對話能力,其主要特性如下:

在整個訓(xùn)練過程中,LLM 的參數(shù)被完全凍結(jié),確保大型語言模型的知識能力被完全保留;

訓(xùn)練過程中所依賴的數(shù)據(jù)規(guī)模較小,消耗的計算資源也較少。Freeze-Omni 僅需要文本-語音配對數(shù)據(jù)(如 ASR 和 TTS 訓(xùn)練數(shù)據(jù),比較容易獲得)以及僅少量的文本模態(tài)的問答數(shù)據(jù),語音問答準確性顯著超越 Moshi 與 GLM-4-Voice 等目前 SOTA 的模型;

Freeze-Omni 可以支持任何具有文本模態(tài)的(多模態(tài))大語言模型,能夠保留基底大語言模型的能力,如提示服從和角色扮演等。此外,如果有必要改變大語言模型的領(lǐng)域或者回應(yīng)方式,只需要用相應(yīng)的文本數(shù)據(jù)對大語言模型進行微調(diào)即可,不需要采集大量語音的問答和對話數(shù)據(jù)。

04a1c67c-b61a-11ef-93f3-92fbcf53809c.png

論文標題:

Freeze-Omni: A Smart and Low Latency Speech-to-speech Dialogue Model with Frozen LLM

論文鏈接:

https://arxiv.org/abs/2411.00774

項目主頁:

https://freeze-omni.github.io/

開源代碼:

https://github.com/VITA-MLLM/Freeze-Omni

三階段訓(xùn)練策略實現(xiàn)語音輸入輸出能力

Freeze-Omni 的整體結(jié)構(gòu)如圖 1 所示,其包含有語音編碼器(Speech Encoder)和語音解碼器(Speech Decoder)以及基底 LLM 三部分。 在運行過程中,流式的語音輸入通過語音編碼器形成分塊(Chunk)特征,然后通過 Adapter 連接到 LLM,LLM 生成的 Hidden State 和文本 Token 的在分塊分割后,分別以塊的形式送入非自回歸前綴語音解碼器(NAR Prefix Speech Decoder)和非自回歸語音解碼器(NAR Speech Decoder)以進行 Prefill 操作。 最后自回歸語音解碼器(AR Speech Decoder)將會完成 Generate 操作以生成語音 Token,并由 Codec Decoder 將其流式解碼為語音信號輸出。

04b173c4-b61a-11ef-93f3-92fbcf53809c.png

▲ 圖1. Freeze-Omni框架圖 Freeze-Omni 各個模塊的三階段訓(xùn)練策略如下: 流式語音編碼器的三階段訓(xùn)練:如圖 2 所示,第一階段(a)會先使用 ASR 數(shù)據(jù)訓(xùn)練一個具有 ASR 能力的語音編碼。 第二階段(b)會以 ASR 任務(wù)為優(yōu)化目標,將語音編碼器與 LLM 做模態(tài)對齊,這個過程中 LLM 是處于凍結(jié)狀態(tài)的。 第三階段(c)會使用由 TTS 系統(tǒng)合成的語音輸入-文本回答的多輪 QA 數(shù)據(jù)進行訓(xùn)練,這里會使用第二階段訓(xùn)練好的語音編碼器,但是其參數(shù)保持凍結(jié)以保留其語音魯棒性,而可訓(xùn)練的參數(shù)只有每個問題前的 Prompt Embedding,用于指導(dǎo) LLM 從 ASR 任務(wù)遷移到 QA 任務(wù)中。

04c4933c-b61a-11ef-93f3-92fbcf53809c.png

▲ 圖2. 流式語音編碼器的三階段訓(xùn)練示意圖 流式語音解碼器的三階段訓(xùn)練:如圖 3 所示,第一階段(a)會先訓(xùn)練一個單碼本的語音編解碼模型,使用單碼本的目的主要是為了降低計算復(fù)雜度和時延。 第二階段(b)將會訓(xùn)練 NAR 語音編碼器和 AR 語音編碼器,這里會使用文本-語音的 TTS 數(shù)據(jù),其文本會通過基底 LLM 的 Tokenizer 轉(zhuǎn)化為 Token,再經(jīng)過基底 LLM 的 Embedding 層轉(zhuǎn)化為文本特征,這個過程中 Embedding 的參數(shù)是凍結(jié)的,訓(xùn)練目標的語音 Token 是由第一階段的語音編碼器提供。 第三階段(c)將會凍結(jié)第二階段訓(xùn)練得到的所有網(wǎng)絡(luò),但同時加入了一個 NAR Prefix 語音編碼器,其用于接受 LLM 輸出的 Hidden State,并將輸出的 kv-cache 作為第二階段模型的初始 kv-cache,該過程使用的數(shù)據(jù)是文本輸入-語音輸出的 QA 數(shù)據(jù),主要目的是為了使得語音編碼器遷移到 LLM 的輸出領(lǐng)域中。

04e17d44-b61a-11ef-93f3-92fbcf53809c.png

▲ 圖3. 流式語音解碼器的三階段訓(xùn)練示意圖 雙工對話的狀態(tài)標簽訓(xùn)練:如圖 4 所示,為了實現(xiàn)雙工交互,F(xiàn)reeze-Omni 在語音編碼器訓(xùn)練的第三階段中,會為每個 Chunk 的最后一個語音幀對應(yīng)的 LLM 輸出 Hidden State 加入一個額外的分類層進行多任務(wù)訓(xùn)練,其目的主要是為了輸出狀態(tài)標簽。 當使用 VAD 激活語音流輸入后,狀態(tài)標簽 0 表示 LLM 將會繼續(xù)接受語音 Chunk 的輸入,狀態(tài)標簽 1 表示 LLM 將會停止接收語音,且會打斷用戶并進入 LLM 的 Generate 階段輸出回復(fù),狀態(tài)標簽 2 表示 LLM 也會停止接收語音,但不會打斷用戶,相當于對這次語音激活做了拒識。

050cf406-b61a-11ef-93f3-92fbcf53809c.png

▲ 圖4. 全雙工對話的狀態(tài)標簽訓(xùn)練示意圖

模型性能測評

訓(xùn)練配置:Freeze-Omni 在訓(xùn)練過程中,使用了開源 Qwen2-7B-Instruct 作為基底模型,語音編碼器在訓(xùn)練過程中使用了 11 萬小時中文英文混合的 ASR 數(shù)據(jù),語音解碼器訓(xùn)練過程使用了 3000 小時由 TTS 系統(tǒng)合成的文本-語音數(shù)據(jù),所提到的 QA 數(shù)據(jù)是由 6 萬條從 moss-003-sft-data 中抽取的多輪對話經(jīng)過 TTS 系統(tǒng)合成得到的。 語音輸入理解能力評估:Freeze-Omni 提供了其在常見的英文測試集上的 ASR 性能測試結(jié)果,從中可以看出,其 ASR 準確性處于較為領(lǐng)先的水平。

05343ed0-b61a-11ef-93f3-92fbcf53809c.png

▲ 圖5. 語音理解能力評估 語音輸出質(zhì)量評估:Freeze-Omni 提供了其在 1000 條 LLM 輸出的 Hidden State 與 Text Token 上語音解碼器生成的語音在使用 ASR 模型測試得到的詞錯誤率(CER),從結(jié)果中可以看出 NAR Prefix 語音解碼器的引入會有效降低詞錯誤率,提高生成語音的質(zhì)量。

0555afac-b61a-11ef-93f3-92fbcf53809c.png

▲ 圖6. 語音輸出質(zhì)量評估 語音問答準確性評估:Freeze-Omni 提供了其在 LlaMA-Questions, Web Questions, 和 Trivia QA 三個集合上的語音問答準確率評估。 從結(jié)果中可以看出 Freeze-Omni 的準確率具有絕對的領(lǐng)先水平,超越 Moshi 與 GLM-4-Voice 等目前 SOTA 的模型,并且其語音模態(tài)下的準確率相比其基底模型 Qwen2-7B-Instruct 的文本問答準確率而言,差距明顯相比 Moshi 與其文本基底模型 Helium 的要小,足以證明 Freeze-Omni 的訓(xùn)練方式可以使得 LLM 在接入語音模態(tài)之后,聰明度和知識能力受到的影響最低。

05601294-b61a-11ef-93f3-92fbcf53809c.png

▲ 圖7. 語音問答準確性評估 系統(tǒng)延遲評估:Freeze-Omni 還提供了端到端時延分析(即用戶說完后到 LLM 輸出音頻的時間差),作者將其分為了可統(tǒng)計時延和不可統(tǒng)計時延兩部分,其中可統(tǒng)計時延的總時長平均數(shù)僅為 745ms,而作者也提到如果經(jīng)過測量考慮到網(wǎng)絡(luò)延遲和不可統(tǒng)計時延部分,則系統(tǒng)的平均響應(yīng)時延在 1.2s 左右,在行業(yè)內(nèi)仍為領(lǐng)先水平。

0592eb88-b61a-11ef-93f3-92fbcf53809c.png

▲ 圖8. 系統(tǒng)延遲評估

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3618

    瀏覽量

    51547
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    339

    瀏覽量

    1209

原文標題:準確性超Moshi和GLM-4-Voice!端到端語音雙工模型Freeze-Omni

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛中“一段式”和“二段式”有什么區(qū)別?

    [首發(fā)于智駕最前沿微信公眾號]最近有小伙伴提問,一段式和二段式有什么區(qū)別。其實說到自
    的頭像 發(fā)表于 10-24 09:03 ?362次閱讀
    自動駕駛中“一段式<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>”和“二段式<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>”有什么區(qū)別?

    語音交互數(shù)據(jù) 精準賦能語音模型進階

    模型在多輪對話、噪聲環(huán)境及語義理解方面表現(xiàn)不佳。 相較于傳統(tǒng)數(shù)據(jù)集僅關(guān)注語音-文本的單點轉(zhuǎn)寫,語音
    的頭像 發(fā)表于 09-11 17:17 ?441次閱讀

    蔚來模型化架構(gòu)如何大幅提升安全上限

    2024年7月,蔚來將行業(yè)首個基于模型化架構(gòu)的「自動緊急制動 AEB」推送上車,蔚來也成為了行業(yè)首家使用
    的頭像 發(fā)表于 08-15 15:35 ?545次閱讀

    華為CANN與智譜GLM側(cè)模型完成適配

    已于7月28日正式開源其新一代基座模型GLM-4.5,其GLM側(cè)模型已完成與CANN的適配。這標志著國產(chǎn)大
    的頭像 發(fā)表于 08-11 11:00 ?2046次閱讀

    廣和通發(fā)布自研側(cè)語音識別大模型FiboASR

    7月,全球領(lǐng)先的無線通信模組及AI解決方案提供商廣和通,發(fā)布其自主研發(fā)的語音識別大模型FiboASR。該模型專為側(cè)設(shè)備上面臨的面對面實時對話及多人會議場景深度優(yōu)化,在低延遲
    的頭像 發(fā)表于 08-04 11:43 ?1219次閱讀

    為什么自動駕駛模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)落地,(End-to-End)大模型也成為行業(yè)研究與應(yīng)用的熱門方向。相較于傳統(tǒng)自動駕駛系統(tǒng)中的模塊化結(jié)構(gòu),
    的頭像 發(fā)表于 07-04 16:50 ?472次閱讀
    為什么自動駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大<b class='flag-5'>模型</b>有黑盒特性?

    一文帶你厘清自動駕駛架構(gòu)差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)飛速發(fā)展,智能駕駛系統(tǒng)的設(shè)計思路也經(jīng)歷了從傳統(tǒng)模塊化架構(gòu)模型轉(zhuǎn)變。傳統(tǒng)模塊化架構(gòu)將感
    的頭像 發(fā)表于 05-08 09:07 ?662次閱讀
    一文帶你厘清自動駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構(gòu)差異

    自動駕駛中基于規(guī)則的決策和模型有何區(qū)別?

    在自動駕駛架構(gòu)的選擇上,也經(jīng)歷了從感知、決策控制、執(zhí)行的三段式架構(gòu)到現(xiàn)在火熱的模型,尤其是在2024年特斯拉推出FSD V12后,各車企更是陸續(xù)推出自家的
    的頭像 發(fā)表于 04-13 09:38 ?3298次閱讀
    自動駕駛中基于規(guī)則的決策和<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大<b class='flag-5'>模型</b>有何區(qū)別?

    如何提高電位測量準確性

    在電子工程和物理實驗中,電位測量是一項基本而重要的任務(wù)。電位測量的準確性直接影響實驗結(jié)果的可靠和產(chǎn)品的安全。 1. 選擇合適的測量設(shè)備 選擇合適的測量設(shè)備是提高電位測量
    的頭像 發(fā)表于 12-28 13:56 ?1139次閱讀

    階躍星辰發(fā)布國內(nèi)首個千億參數(shù)語音模型

    近日,階躍星辰在官方公眾號上宣布了一項重大突破——推出Step-1o千億參數(shù)語音模型。該模型
    的頭像 發(fā)表于 12-17 13:43 ?970次閱讀

    利用OpenVINO部署GLM-Edge系列SLM模型

    近期智譜發(fā)布了其最新的GLM-Edge系列SLM模型,GLM-Edge 系列是智譜在面向側(cè)真實落地使用的場景下的一次嘗試,由兩種尺寸的大語言對話
    的頭像 發(fā)表于 12-09 16:12 ?2288次閱讀

    黑芝麻智能算法參考模型公布

    黑芝麻智能計劃推出支持華山及武當系列芯片的算法參考方案。該方案采用One Model架構(gòu),并在決策規(guī)劃單元引入了VLM視覺語言大模型和PRR行車規(guī)則的概率化表征子模塊,進一步提升
    的頭像 發(fā)表于 12-03 12:30 ?1284次閱讀
    黑芝麻智能<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>算法參考<b class='flag-5'>模型</b>公布

    智譜推出四個全新側(cè)模型 攜英特爾按下AI普及加速鍵

    ,GLM-Edge-4B-chat、GLM-Edge-1.5B-chat為側(cè)大語言模型,GLM-Edge-V-5B、
    的頭像 發(fā)表于 12-02 17:13 ?788次閱讀
    智譜推出四個全新<b class='flag-5'>端</b>側(cè)<b class='flag-5'>模型</b> 攜英特爾按下AI普及加速鍵

    如何提升ASR模型準確性

    提升ASR(Automatic Speech Recognition,自動語音識別)模型準確性語音識別技術(shù)領(lǐng)域的核心挑戰(zhàn)之一。以下是一些提升ASR
    的頭像 發(fā)表于 11-18 15:14 ?2773次閱讀

    連接視覺語言大模型自動駕駛

    自動駕駛在大規(guī)模駕駛數(shù)據(jù)上訓(xùn)練,展現(xiàn)出很強的決策規(guī)劃能力,但是面對復(fù)雜罕見的駕駛場景,依然存在局限性,這是因為
    的頭像 發(fā)表于 11-07 15:15 ?974次閱讀
    連接視覺語言大<b class='flag-5'>模型</b>與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自動駕駛