可能是解決AI畫手問題的新思路?

本篇總結(jié)自GitHub上近期的一個(gè)帖子。算是個(gè)新聞吧。如果喜歡本文,請(qǐng)不要吝惜免費(fèi)的點(diǎn)贊!謝謝~
原帖標(biāo)題:
[Feature Request] Add generating hand depth map tab · Issue #388 · Mikubill/sd-webui-controlnet · GitHub
以下內(nèi)容來自這個(gè)帖子
https://github.com/Mikubill/sd-webui-controlnet/issues/388
我注意到,一位叫Fannovel16的網(wǎng)友在Controlnet插件討論區(qū)留言并提出了一種可能的解決方案:將人物拆分為身體骨骼和手部姿態(tài)兩部分分別識(shí)別。身體部分用Openpose骨骼加以識(shí)別,而手部姿態(tài)用MiDaS方法獲得深度圖(從手部照片或者三維模型截圖中取得深度圖),再將兩者結(jié)合起來。這位網(wǎng)友還給出了幾張例圖:





AI生成手部的能力一直很糟糕。Openpose插件的出現(xiàn)給出了一個(gè)可能的解決思路,然而實(shí)際操作發(fā)現(xiàn)繪制手部依然非常困難。即便擁有手部姿態(tài)的骨骼圖,AI也無法準(zhǔn)確按骨骼繪制手指的姿態(tài)。手指的關(guān)節(jié)數(shù)眾多,姿態(tài)極為復(fù)雜,并非所有姿勢(shì)都會(huì)被素材記錄下來。Openpose中手部擁有21個(gè)節(jié)點(diǎn),而全身骨骼才有18個(gè)節(jié)點(diǎn)而已。開發(fā)新的“繪制手部”插件,一定是一眾程序猿們的目標(biāo)。

或許可以期待一下?
這個(gè)方法我測(cè)試了一下,可行。就看如何結(jié)合起來了。
也許突然有一天,AI突然就學(xué)會(huì)“畫”手了呢。
如果喜歡本篇文章,歡迎點(diǎn)贊↘