AI淺律模型發(fā)布專(zhuān)欄(基于SoVits)
鏈接:https://pan.baidu.com/s/11vXMojueuaJtMmxTSdV4Mw?pwd=AAAA
提取碼:AAAA
內(nèi)含ONNX與pth兩種格式,根據(jù)不同需求自行選擇下載,內(nèi)含對(duì)應(yīng)的配置文件
使用ONNX格式模型推理可以參考MoeSS項(xiàng)目(https://github.com/NaruseMioShirakana/MoeSS)(這次發(fā)布的ONNX模型并沒(méi)有進(jìn)行推理測(cè)試,且不支持原生SoVits進(jìn)行推理)
使用pth格式模型推理可以參考B站MasterSatori的SoVits系列教程
AI網(wǎng)絡(luò)結(jié)構(gòu)來(lái)源: https://github.com/innnky/so-vits-svc
AI網(wǎng)絡(luò)結(jié)構(gòu)及預(yù)訓(xùn)練模型作者: 此外,使用此模型進(jìn)行創(chuàng)作等活動(dòng)時(shí)還需注意: 在發(fā)布的作品簡(jiǎn)介中應(yīng)包含以下信息: AI網(wǎng)絡(luò)結(jié)構(gòu)來(lái)源: https://github.com/innnky/so-vits-svc
AI網(wǎng)絡(luò)結(jié)構(gòu)及預(yù)訓(xùn)練模型作者: 數(shù)據(jù)提供:淺律Asaritsu 模型訓(xùn)練:Kakaru-kh 此模型可以直接用于以下用途: 個(gè)人使用 生成的音頻作為素材進(jìn)行創(chuàng)作后投稿 其他關(guān)于數(shù)據(jù)提供者的二次創(chuàng)作 此模型用于以下用途之前應(yīng)獲得數(shù)據(jù)提供者與模型訓(xùn)練者的同意與授權(quán): 制作發(fā)布非盈利/盈利的游戲 制作發(fā)布非盈利/盈利的與數(shù)據(jù)提供者無(wú)關(guān)的創(chuàng)作 其他商業(yè)用途 此模型不得用于以下用途: 冒充數(shù)據(jù)提供者 作為變聲器 將此模型繼續(xù)訓(xùn)練 將此模型作為底模進(jìn)行其他模型的訓(xùn)練 將此模型重新發(fā)布 過(guò)于低質(zhì)量的創(chuàng)作(合成音頻包含大量雜音噪音) 任何敏感內(nèi)容 其他未提及的用途也須獲得數(shù)據(jù)提供者與模型訓(xùn)練者的同意與授權(quán) 在進(jìn)行推理之前,也需要獲得輸入源的相關(guān)授權(quán),未授權(quán)輸入源的創(chuàng)作是不允許的(3月10日更新) TIPS: 在使用此模型創(chuàng)作之前,您需要一定的計(jì)算機(jī)使用能力,一定的音頻知識(shí),以及簡(jiǎn)單的混音能力 在從事一切有關(guān)AI的活動(dòng)前,您都需要對(duì)自己的設(shè)備的耐久度有一個(gè)清楚的認(rèn)知,每個(gè)人都是自己設(shè)備健康的第一負(fù)責(zé)人。使用SoVits進(jìn)行體面的推理音頻您需要大于8GB的顯存或大于16GB的內(nèi)存,使用內(nèi)存推理您需要將項(xiàng)目文件夾中的inference文件夾中的infer_tool.py中的152行改為“ ?????? self.dev = torch.device("cpu")”將163行與164行使用“#”注釋掉 您也可以使用一些免費(fèi)/廉價(jià)的云計(jì)算平臺(tái)進(jìn)行音頻的推理,如colab,可以參考這個(gè)筆記本(https://colab.research.google.com/drive/1hj9CSF0Rxfvmo-VPcqYTdW6qKEqgL6oB?usp=share_link)