ONNX模型導(dǎo)出與模型打包
這是是之前的訓(xùn)練colab里導(dǎo)出ONNX模型

#創(chuàng)建虛擬環(huán)境
!conda create -n ONNX python=3.8 -y

前面數(shù)據(jù)集制作有condacolab安轉(zhuǎn)方法

#激活虛擬環(huán)境(!空格activate ONNX )
! activate ONNX

#安裝pytorch==1.13.1只適用colab沒更新的情況
!conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch

#安裝依賴
%cd /content/drive/MyDrive/DiffSinger
!pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

#diffsingerdatsaet歌手
#diffsingerdatsaet_acoustic訓(xùn)練模型目錄名
#diffsingerdatsaet_acoustic_ONNX生成目錄.默認(rèn)在DiffSinger目錄產(chǎn)生
#--expose_gender --expose_velocity根據(jù)自己模型添加,如果和我之前config_acoustic.yaml一樣就可以這樣導(dǎo)出支持Gen參數(shù),支持VEL參數(shù)
#導(dǎo)出聲音模型
%cd /content/drive/MyDrive/DiffSinger
!python scripts/export.py acoustic --exp diffsingerdatsaet?--expose_gender --expose_velocity --out diffsingerdatsaet_acoustic_ONNX
#自動音高導(dǎo)出

導(dǎo)出后可以構(gòu)建OpenUTAU音源包
官方有詳細(xì)介紹

我的打包僅供參考
diffsingerdatsaet ? ? ? ? ? ?#文件夾可任意命名

acoustic.onnx ? ? #diffsingerdatsaet_acoustic.ONNX

phonemes.txt ? ? ?#diffsingerdatsaet_acoustic.phonemes音素列表

dsconfig.yaml ? ? #Diffsinger音源信息文件自己創(chuàng)建

phonemes: phonemes.txt? ? #音素列表
acoustic:diffsingerdatsaet_acoustic.ONNX? ?#你的onnx聲學(xué)模型
vocoder: nsf_hifigan? ? ? #所使用的聲碼器包名
augmentation_args:
? random_pitch_shifting:
? ? range: [-5., 5.]
? ? scale: 1.0
? random_time_stretching:
? ? domain: log
? ? range: [0.5, 2.0]
? ? scale: 1.0
use_key_shift_embed: true
use_speed_embed: true
#我的預(yù)處理和導(dǎo)出設(shè)置這樣的

character.yaml ? ?#OpenUTAU音源信息

text_file_encoding: utf-8
portrait_opacity: 0.67
default_phonemizer: OpenUtau.Core.DiffSinger.DiffSingerPhonemizer
singer_type: diffsinger

character.txt ? ? #音源基本信息文件

name=diffsingerdatsaet_acoustic
image=? ? ? ? ? ?#圖
voice=? ? ? ? ? ? #作者
web=? ? ? ? ? ? ? #網(wǎng)址

這樣就聲音就可以了,如果沒有音高模型就可以直接使用導(dǎo)入OpenUTAU
如果加入音高分別新建兩個文件夾dsdur、dspitch按照官方的導(dǎo)入
https://openvpi-docs.feishu.cn/wiki/NmPdwuMxei03i1kQHHhcJWBJnce