好看的圖片不知道怎么寫提示詞?用AI讀出來


AI繪畫普及后,越來越多的創(chuàng)作者開始用各種AI工具,來繪制自己想象中的畫面和場景。
無論是免費開源的stable diffsion,還是付費的midjourney,都能高度還原出你的想象力。
然而,有一個很大的問題困擾著很多愛好者:我不知道怎么寫提示詞怎么辦?
有時候,看到一張很棒的照片,想仿照畫一張,但苦于才思枯竭,無法高效完整的寫出提示詞。
怎么辦?
推薦一個“反推”插件,叫 Wd14 Tagger 。
所謂反推,就是能夠根據(jù)圖片,倒推出這張圖片的提示詞。基本原理是AI來識別圖片里的關鍵詞,比如長頭發(fā)、微笑、海邊等等。
AI如何識別的呢?
靠的是模型,Wd14 Tagger依賴的deepdanbooru模型。
deepdanbooru的模型部署在本地,可以識別圖像中的物體,用文字特征描述,一個一個的單詞。能把圖片中的每一個物體“讀”出來。
本質上是把人工打標的過程逆操作,AI經過訓練,逐漸“學”會了人類的打標過程,就可以利用大模型給圖片打標。
1、安裝方式:
在擴展--從網址安裝,輸入
https://gitcode.net/ranting8323/stable-diffusion-webui-wd14-tagger

安裝完成后,重啟啟動器。
重啟過程中會下載模型,第一次使用比較慢,請耐心等待。
2、使用方法
點擊WD14(反推),上傳要獲取提示詞的圖片。

插件會開始反推,并將反推結果顯示在tags,反推結果可以直接傳送回文生圖、圖生圖。

以本圖為例,反推插件“讀”出來的結果是:
1girl, solo, realistic, glasses, long hair, black hair, breasts, smile, looking at viewer, teeth, cleavage, round eyewear, upper body, lips, black eyes, messy hair, bra, underwear, nose, grin, collarbone, medium breasts
用這組提示詞跑了一下文生圖,發(fā)現(xiàn)已經很接近了。

這說明使用AI讀取提示詞還是很靠譜的。
如果結合圖生圖,效果會更加接近(重繪幅度0.7)。

WebUI升級支持SDXL后,很長一段時間,WD14插件啟動就報錯,直到WebUI更新到1.6版本,才能正常使用。
3、其他用途
除了作為反推插件,Wd14 Tagger還被作為訓練模型的必備工具,替代人工打標,減輕工作量,實現(xiàn)全面自動化“煉丹”。

比如秋葉開發(fā)的模型訓練器,就使用該插件自動打標。