Diffsinger2.0.0更新體驗(yàn)
看到了Diffsinger更新了,然后看了下使用教程感覺比之前容易,制作好數(shù)據(jù)集后在colab里訓(xùn)練也不用安裝conda直接可以運(yùn)行

之前的教程我也搞不懂,弄不大明白,這回教程里數(shù)據(jù)集部分MakeDiffSinger使用方法很詳細(xì)





用colab直接復(fù)制教程里命令就行,比之前用這簡(jiǎn)單多了,我這種什么都不懂的終于可以了哈!
好吧,有個(gè)導(dǎo)出DS文件。這個(gè)功能就跟ACE Studio干聲提取midi差不多,我試一下可以直接用整首歌干聲,用制作數(shù)據(jù)集的makediffsinger部分直接提取整首歌人聲midi音高持續(xù)時(shí)長(zhǎng)和歌詞的ds文件,然后直接用ds文件推理模型,這樣就可以直接完成整首歌了。編輯一次colab以后直接全自動(dòng)。

圖片的這一步里的數(shù)據(jù)集只放一個(gè)整首歌的一個(gè)文件3分鐘的音頻,這樣得到的ds文件就是整首歌ds文件,直接推理就可以了。不用借助其它軟件了,直接復(fù)制整首歌的歌詞到一個(gè)lab也很容易標(biāo)注。
其實(shí)開始是感覺可以離線使用轉(zhuǎn)到OpenUtau使用這個(gè)功能吸引的我,但用過感覺直接修改DS文件txt直接修改歌詞音高持續(xù)時(shí)間其實(shí)更簡(jiǎn)單點(diǎn),手機(jī)就編輯了。
DiffSinger(OpenVPI 維護(hù)版本)
https://github.com/openvpi/DiffSinger
里面的文字教程跟新很詳細(xì)
https://openvpi-docs.feishu.cn/wiki/KmBFwoYDEixrS4kHcTAcajPinPe