探索高效翻唱識別新方法,還有智能音樂、音頻合成、音頻理解、超腦研究進展。智東西6月1日報道,近期,字節(jié)跳動火山語音團隊的最新音樂檢索系統(tǒng)ByteCover2入選了國際語音技術(shù)領(lǐng)域頂會ICASSP 2022。該系統(tǒng)主要面向音樂信息檢索(MIR)領(lǐng)域的重要任務(wù)之一——翻唱識別(CSI),通過表征學(xué)習(xí)方法讓其具備提取音樂核心特征的能力,并且該特征能夠?qū)ΨN類繁多的音樂重演繹具有良好的魯棒性,檢索速度提高8倍。經(jīng)Da-Tacos數(shù)據(jù)集上的評估,其準確率遠超其他方案的SoTA性能。 除了ByteCover2,字節(jié)跳動火山語音團隊還有多篇論文被ICASSP 2022收錄,內(nèi)容涵蓋智能音樂、音頻合成、音頻理解、超腦等多個方向。翻唱識別往往需要對音樂中的一些常見變化具有魯棒性,從而保證系統(tǒng)專注于對音樂旋律走向的建模。在設(shè)計翻唱識別系統(tǒng)時,音樂調(diào)式偏移、音樂結(jié)構(gòu)變化、音樂節(jié)奏變化這三種音樂變化通常會被重點考慮。此外,抖音平臺上每日新增千萬量級的用戶投稿,如何快速應(yīng)對巨量查詢需求,提高識別系統(tǒng)的整體吞吐量并同時確保識別準確性,也是亟待解決的問題。在內(nèi)部開發(fā)返廠識別時,字節(jié)跳動還面臨另一挑戰(zhàn),即在設(shè)計特征時,如何在保障其他性質(zhì)的前提下盡可能減小特征大小,從而減少存儲空間,降低系統(tǒng)復(fù)雜度和成本。在ByteCover2系統(tǒng)中,字節(jié)跳動火山語音團隊通過多任務(wù)學(xué)習(xí)范式聯(lián)合ResNet-IBN模型,做到從音頻輸入中提取魯棒且具備區(qū)分性的向量表征。針對效率優(yōu)化問題,團隊還提出了PCA-FC模塊,實踐證明該模塊在保證ByteCover2模型性能不變甚至提高的前提下,可將向量尺寸壓縮至ByteCover1的1/8。▲Bytecover模型結(jié)構(gòu)與訓(xùn)練流程
1、多任務(wù)學(xué)習(xí)提高音樂檢索能力翻唱識別領(lǐng)域通常存在兩種訓(xùn)練范式,分別是多分類學(xué)習(xí)和度量學(xué)習(xí)。前者將每個曲目視為一個獨立類別,在特征層后加上全連接層,并通過交叉熵等分類損失對模型進行訓(xùn)練,訓(xùn)練完成后去掉全連接層,使用特征層的輸出作為歌曲的表征;后者直接在特征層之上,使用triplet loss等度量學(xué)習(xí)損失訓(xùn)練網(wǎng)絡(luò)。總體來看,兩種訓(xùn)練范式各有優(yōu)劣,團隊通過實驗發(fā)現(xiàn),分類損失往往能提高模型對同曲目不同風(fēng)格版本的檢索能力,細致設(shè)計的度量學(xué)習(xí)損失則能提高翻唱網(wǎng)絡(luò)對相似風(fēng)格不同曲目音樂的區(qū)分能力。因此ByteCover系列模型對這兩種學(xué)習(xí)范式進行了結(jié)合,并通過引入BNNeck模塊,提高了兩種損失的兼容性。2、ResNet網(wǎng)絡(luò)與IBN正則化方法(ResNet & Instance-Batch Normalization)為了簡化音樂特征提取的流程,加快特征提取速度,團隊使用CQT頻譜圖作為模型的輸入,而不使用在同期其他翻唱識別方法中常用的cremaPCP或其他更為復(fù)雜的特征,但此設(shè)計會天然地在輸入特征層面上損害模型對音頻頻移的魯棒性。因此,團隊選擇卷積神經(jīng)網(wǎng)絡(luò)做了音樂表征提取網(wǎng)絡(luò),希望能利用卷積網(wǎng)絡(luò)的平移不變性來實現(xiàn)模型對頻移的不變性。實驗證明,CQT譜 普通ResNet組合已在效率和性能上超過CremaPCP CNN的設(shè)計。深入探究,團隊引入了Instance-Batch Normalization來從網(wǎng)絡(luò)隱表示的層面進一步學(xué)習(xí)和風(fēng)格無關(guān)的音樂特征,即特征圖上不同通道間的均值方差等統(tǒng)計量與輸入的風(fēng)格化特征相關(guān)。IN通過對特征圖的通道維度做的歸一化處理,一定程度上實現(xiàn)了在隱藏表征層面上去除風(fēng)格化信息,從而提高翻唱識別模型對音色變化的魯棒性。通過測算,團隊發(fā)現(xiàn)工業(yè)級別的翻唱系統(tǒng)大部分耗時集中在特征檢索階段,而這一階段的時間消耗基本和曲庫的大小以及特征向量的尺寸線性相關(guān)。曲庫中歌曲的數(shù)目會隨著業(yè)務(wù)的增長而不斷增加,因此降低特征向量尺寸成為優(yōu)化檢索系統(tǒng)整體耗時的必由之路,而同期其他翻唱向量特征降維的工作往往采用一個全連接層來將高維向量投影到維度更低的空間。實驗結(jié)果發(fā)現(xiàn),單純使用全連接層進行降維會明顯降低系統(tǒng)的檢索能力,團隊認為這種現(xiàn)象不僅是因為更小的尺寸限制了向量的表征能力,性能的損失也來自于隨機初始化的全連接層對特征各向同性的破壞。隨后對數(shù)據(jù)可視化之后可發(fā)現(xiàn),降維后特征分布在一個錐形空間,表現(xiàn)出明顯的各向異性,此種性質(zhì)不利于使用余弦距離為度量的向量檢索。因此團隊嘗試使用PCA對特征向量進行降維操作并隨后用PCA的變換矩陣初始化一個全連接層,把該層和特征提取網(wǎng)絡(luò)連接進來并聯(lián)合訓(xùn)練,并將模塊稱作PCA-FC。實驗結(jié)果顯示,PCA-FC能顯著提升降維模型的檢索性能,在保持檢索性能不變的前提下向量尺寸可以被壓縮8倍。▲對比結(jié)果
從結(jié)果來看,一直以來Da-Tacos是作為評估翻唱識別的基準測試數(shù)據(jù)集,在該數(shù)據(jù)集上,采用1536維的ByteCover2模型取得了遠超其他方案的SoTA性能,全類平均正確率指標(mAP)達到79.1%,而ByteCover系列以外的最好方法Re-MOVE的該項指標只有52.5%。值得一提的是,128維的ByteCover2模型甚至超過了2048維的ByteCover1和Re-MOVE方法。此外,ByteCover1系統(tǒng)還參加了2020國際音頻檢索評測大賽MIREX,過程中大幅刷新了翻唱識別賽道歷年最好記錄,mAP指標達到84%,是同年參加該競賽的其他方案性能的14倍。創(chuàng)新自監(jiān)督音樂預(yù)訓(xùn)練算法在智能音樂方向,字節(jié)跳動火山語音團隊基于Transformer的聲音事件檢測模型HTS-AT、基于層級式Transformer的自監(jiān)督音樂預(yù)訓(xùn)練算法S3T兩篇論文均被ICASSP 2022收錄。1、HTS-AT:用于聲音分類和檢測的分層標記語義音頻HTS-AT針對音頻任務(wù)的特性,該結(jié)構(gòu)能有效提高音頻頻譜信息在深度Transformer網(wǎng)絡(luò)中的流動效率,提高了模型對聲音事件的判別能力,并且通過降低輸出特征圖的大小,顯著降低了模型地計算量與內(nèi)存消耗。HTS-AT還引入了Token Semantic模塊,使模型具備預(yù)測聲音時間起始與終止點的能力,并且無需使用額外有標注數(shù)據(jù)進行訓(xùn)練。▲HTS-AT模型的結(jié)構(gòu)
綜合以上技術(shù),HTS-AT在標準數(shù)據(jù)集AudioSet上的mAP指標達到0.471,是當(dāng)前的該數(shù)據(jù)集上的最佳水平,且參數(shù)與計算量都小于之前的最佳方法;另外,在聲音事件定位任務(wù)上,HTS-AT無需額外標注數(shù)據(jù),即達到有監(jiān)督定位模型的性能水平。 在音樂識別場景中,聲音事件檢測模型會挑選包含音樂的片段送入音樂檢索系統(tǒng),以此來提高整個系統(tǒng)的效率與準確性。2、S3T:針對音樂分類基于Swin Transformer的自監(jiān)督預(yù)訓(xùn)練這篇文章提出了一種創(chuàng)新的、基于層級式Transformer的自監(jiān)督音樂預(yù)訓(xùn)練算法S3T。S3T使用了大規(guī)模音樂預(yù)訓(xùn)練配合少量標簽數(shù)據(jù)微調(diào)的范式,充分利用大量無標簽的音樂數(shù)據(jù),通過挖掘時域和頻域的信息,學(xué)習(xí)具有較強泛化性的通用音樂表征。S3T在多個下游任務(wù)上均取得很好效果,特別是僅使用10%的標簽數(shù)據(jù)進行微調(diào)效果便能超過使用以往全量標簽數(shù)據(jù)訓(xùn)練的模型,大幅降低了人工數(shù)據(jù)標注的成本。▲S3T模型結(jié)構(gòu)與訓(xùn)練流程
音樂自監(jiān)督學(xué)習(xí)無需大量人工標簽便可利用大量音樂數(shù)據(jù)充分挖掘其自身的表征,且擁有較強的通用性。本文提出的音樂表征自監(jiān)督學(xué)習(xí),為音樂理解構(gòu)筑了基礎(chǔ)。S3T目前已經(jīng)應(yīng)用在音樂標簽、音樂指紋等場景,微調(diào)后的S3T可以為音樂打上風(fēng)格、語種、情緒等標簽,可靠的音樂標簽可以進一步服務(wù)音樂推薦系統(tǒng),使其精準地向來自不同地區(qū)的用戶推送合適的音樂。在音頻合成方向,字節(jié)跳動火山語音團隊基于服裝風(fēng)格遷移實現(xiàn)場景感知下的人物視頻生成論文被ICASSP 2022收錄。該方向致力于解決視頻中人物個性化穿搭和背景場景自由的選擇問題,設(shè)計了多個解耦encoder學(xué)習(xí)人物不同的屬性(身份、衣服和姿態(tài)),通過共享decoder融合多層面信息。不同于圖片任務(wù),視頻需要學(xué)習(xí)幀之間的變化,所以團隊設(shè)計了幀間判別器(Inner-frame Discriminator)來大幅提升穩(wěn)定性。具體來說,在模型生成的結(jié)果上應(yīng)用掩碼,人物可切換到任意場景上。工作在公開數(shù)據(jù)集TEDXPeople,相對baseline系統(tǒng)(CVPR2021)視頻中衣服個性化的多項客觀指標均有顯著改善,可以達到SOTA效果:SSIM 0.047,PSNR 4.6,F(xiàn)ID(越小越好) -0.4, FVD(越小越好)-0.543。▲場景感知的服裝風(fēng)格遷移模型框架
在數(shù)字人多模態(tài)生成的場景和業(yè)務(wù)中,數(shù)字人主播衣服的個性化穿搭和場景自由的選擇,為用戶提供了自主可控的個性化能力,可大幅增加數(shù)字人生態(tài)的多樣性。定制化性能,優(yōu)化數(shù)據(jù)標注質(zhì)量在音頻理解方向,字節(jié)跳動火山語音團隊基于細粒度語境知識選擇的端到端(語境)語音識別提升方法、非自回歸Transformer自動語音識別的最小詞誤差訓(xùn)練、使用梯度掩碼改進端到端語音識別的偽標簽訓(xùn)練論文被ICASSP 2022收錄。此外,面向會議場景,火山語音團隊在ICASSP 2022多方會議轉(zhuǎn)錄挑戰(zhàn)賽(M2MeT)的兩個限定訓(xùn)練數(shù)據(jù)子賽道上分獲第二名和第四名。1、基于細粒度語境知識選擇的端到端(語境)語音識別提升方法該工作在一種被稱為協(xié)同解碼(Collaborative Decoding,ColDec)的語音識別定制化/個性化方法的基礎(chǔ)上,提出了細粒度語境知識選擇機制(Fine-grained Contextual Knowledge Selection),來進一步增強該方法在大熱詞列表和較多干擾熱詞情境下的語音識別定制化性能。在先前工作中,一種被稱為協(xié)同解碼(Collaborative Decoding)的語音識別定制化技術(shù)有效地提升了定制化識別性能。本文針對其在大熱詞列表和較多干擾熱詞情境下的性能衰減問題,提出了細粒度語境知識選擇機制,進一步增強了協(xié)同解碼技術(shù)在定制化場景下的能力。在公開數(shù)據(jù)集Librispeech上,本文方法在基礎(chǔ)CIF語音識別模型的test-clean 2.12%的WER基礎(chǔ)上,進一步為WER帶來了約5%的相對下降;在內(nèi)部16w小時工業(yè)級ASR數(shù)據(jù)集訓(xùn)練的語音識別模型的基礎(chǔ)上,該方法在真實會議測試集上為CER帶來了最高約16%的相對下降。▲a. 協(xié)同解碼 b.細粒度語境知識選擇
應(yīng)用場景方面,該方法可被用于語音識別定制化,例如在智能語音助手和在線視頻會議等應(yīng)用場景中,許多同背景相關(guān)的關(guān)鍵短語、個性化信息、熱詞等內(nèi)容都較難識別。此外,它也可以用在移動端智能語音助手的應(yīng)用場景下,聯(lián)系人列表中的聯(lián)系人姓名,頻繁出沒的地點位置等個性化信息;在線會議場景下,參會人員的姓名,會議主題相關(guān)的專業(yè)術(shù)語等,針對性地提升這些定制化和個性化文本內(nèi)容的語音識別性能,在實際應(yīng)用場景中有重要意義。2、非自回歸Transformer自動語音識別的最小詞誤差訓(xùn)練這篇論文由字節(jié)跳動和南洋理工大學(xué)(NTU)共同完成。近年來由于基于非自回歸Transformer(NAT)的自動語音識別(ASR)框架的以下優(yōu)點,分別是“當(dāng)前的輸出與歷史的輸出無關(guān)”以及“其推理速度非??臁?,其在業(yè)界日益受到重視。對此,團隊對于其在語碼轉(zhuǎn)換語音識別任務(wù)(CSSR)上的性能有所期待。另外據(jù)不完全了解,似乎并沒有出現(xiàn)將最小詞錯率(MWER)準則應(yīng)用于NAT模型的先例,所以該工作在一定程度上填補了此項空白,且在SEAME語碼轉(zhuǎn)換數(shù)據(jù)集上得到了驗證。本文的貢獻主要在兩個方面:(1)在語碼轉(zhuǎn)換的場景下,提出了多種CTC掩蔽的方式訓(xùn)練NAT模型;(2)在MWER訓(xùn)練準則下,提出了多種N-best假設(shè)的生成方法。其發(fā)現(xiàn)及結(jié)論是:(1)無論在單語言還是跨語言的場景下,上下文相關(guān)的場景信息非常重要,而NAT沒有歷史信息,NAT模型相比自回歸的Transformer(AT)得到了一致性更差的結(jié)果;(2)嚴重受限于N-best假設(shè)的生成方法,在NAT模型上進行基于N-best的MWER訓(xùn)練只得到了細微的提升,所以如何生成更豐富的N-best有待進一步研究。3、使用梯度掩碼改進端到端語音識別的偽標簽訓(xùn)練一直以來,打偽標簽在自監(jiān)督學(xué)習(xí)中都是最重要的方法,最近在語音識別領(lǐng)域也展現(xiàn)出極好的效果,但是自監(jiān)督學(xué)習(xí)對偽標簽的質(zhì)量極其敏感,主要是因為偽標簽中的錯誤或者噪聲常常會導(dǎo)致模型訓(xùn)練的不穩(wěn)定并最終收斂到非最佳的狀態(tài),特別是對于e2e的模型比如RNNT。對此該論文提出了Gradient-mask的方法來應(yīng)對以上問題。此方法在訓(xùn)練過程中抹去了encoder中可見input的對應(yīng)梯度,從而鼓勵模型從不可見的部分進行推測,并且能有效降低模型對corrupted label的overfit。應(yīng)用場景方面,此方法可以有效應(yīng)對模型overfit到corrupted label并提升模型訓(xùn)練的效果,例如半監(jiān)督自學(xué)習(xí)中,因為domain不match等原因?qū)е聀seudo-label質(zhì)量過差,以及已知一部分數(shù)據(jù)標注質(zhì)量過差的問題。4、ICASSP 2022多方會議轉(zhuǎn)錄挑戰(zhàn)賽的火山語音系統(tǒng)會議場景是語音識別和說話人日志技術(shù)應(yīng)用中最有價值和挑戰(zhàn)的場景之一,會議場景包含了豐富的說話風(fēng)格和復(fù)雜的聲學(xué)條件,需要考慮重疊語音、未知數(shù)量說話人、遠場信號、噪音、混響等挑戰(zhàn)。ICASSP 2022多通道多方會議轉(zhuǎn)錄挑戰(zhàn)(M2MeT)提供了120小時真實記錄的中文會議數(shù)據(jù),包含8通道麥克風(fēng)遠場數(shù)據(jù)和對應(yīng)耳機麥克風(fēng)采集的近場數(shù)據(jù)。M2MeT挑戰(zhàn)賽包括多說話人語音識別和說話人日志兩個賽道,團隊在限定訓(xùn)練數(shù)據(jù)子賽道上分別獲得第二名和第四名。針對多說話人語音識別賽道,團隊提出一種神經(jīng)網(wǎng)絡(luò)前端模塊和語音識別模塊端到端聯(lián)合訓(xùn)練的方法,輸入8通道音頻輸出多說話人識別文本,除此之外加入了豐富的8通道數(shù)據(jù)仿真,在測試集上和官方基線相比CER相對下降32.6%。在說話人日志賽道中,結(jié)合前端信號處理技術(shù),團隊提出一種融合聲源定位信息的說話人日志方法,提高識別準確率;同時針對競賽數(shù)據(jù)中存在的說話人重疊問題,提出一種多通道融合算法,減少重疊部分的說話人漏檢,最后采用修改的DOVER-Lap算法對多套系統(tǒng)進行融合,最終在測試集上的DER(說話人日志錯誤率)相比官方基線相對下降53.7%。該技術(shù)可以被用在會議室多通道麥克風(fēng)場景下,生成包含說話人信息的多說話人語音轉(zhuǎn)錄結(jié)果。在超腦方向,火山語音團隊基于稀疏共享子網(wǎng)絡(luò)的跨語言語音表征學(xué)習(xí)論文被ICASSP 2022收錄。該工作提出了一種基于稀疏共享結(jié)構(gòu)的多語言語音表征學(xué)習(xí)方法,即從模型中劃分出多個稀疏子網(wǎng)絡(luò)來分別對不同語言進行建模,進而實現(xiàn)語言自適應(yīng)訓(xùn)練,每個語言的子網(wǎng)絡(luò)都通過裁剪不重要的參數(shù)進行提取。基于此,文中探索了一種基于彩票假設(shè)(Lottery Ticket Hypothesis)的提取方法以及另一種基于一階泰勒展開的快速提取方法。在下游多語言語音識別任務(wù)上,所提出的方法可以大幅降低基線XLSR模型的錯誤率,并超過Gating Network、Adapter等其他自適應(yīng)訓(xùn)練方法。▲基于稀疏共享結(jié)構(gòu)的多語言預(yù)訓(xùn)練流程
在國際化背景下,為了滿足不同語言的字幕、審核和翻譯等需求,需要針對各個語言去搭建語音識別系統(tǒng)。多語言語音識別的目標是用單一模型去支持多個語言的語音識別,可以有效的減輕部署和維護的成本,并能在一些低資源場景下提升識別效果,具有非常重要的意義。結(jié)語:AI語音正在業(yè)務(wù)場景釋放更大價值字節(jié)跳動火山語音團隊是原字節(jié)跳動AI Lab Speech & Audio智能語音與音頻團隊,致力于為公司各個業(yè)務(wù)提供音頻理解、音頻合成、對話交互、音樂檢索和智能教學(xué)等AI能力與方案。自2017年成立以來,字節(jié)跳動火山語音團隊研發(fā)的AI智能語音技術(shù),已經(jīng)為今日頭條、抖音、剪映、西瓜視頻、番茄小說、飛書辦公套件等字節(jié)跳動旗下重量級產(chǎn)品提供了各類AI解決方案。截至目前,該團隊已服務(wù)上百個業(yè)務(wù)合作伙伴。伴隨字節(jié)跳動業(yè)務(wù)的快速發(fā)展,其語音識別和語音合成覆蓋了多種語言和方言,已有多篇論文入選各類AI頂級會議,未來希望繼續(xù)發(fā)展70 語言和20 方言,用于滿足內(nèi)容創(chuàng)作與交流平臺的需求。隨著字節(jié)跳動火山語音團隊不斷探索AI與業(yè)務(wù)場景的高效結(jié)合,我們期待看到其智能語音技術(shù)實現(xiàn)更大的用戶價值。
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請
點擊舉報。