??警惕!你的NovelAI模型,極有可能被惡意攻擊! 藏在AI繪畫泄露模...
2022-10-14 22:03 作者:Advanced_Killer | 我要投稿

由于我最近也在學(xué)習(xí)軟件工程和網(wǎng)絡(luò)安全相關(guān)知識,我就來總結(jié)并補充一些。
我剛開始知道Novel AI模型漏洞時,我的理解是開后門,我不太相信。不過現(xiàn)在看了視頻后,我想的確有那個可能性。
python中pickle模塊可以將一個表達式序列化,進而隱藏惡意代碼,視頻中的通過os模塊執(zhí)行惡意代碼只是一個很輕的示例。
如果由我來編寫惡意代碼,我會先在自己電腦上建立一個主控節(jié)點,然后創(chuàng)建metasploit控制端,并將被控端上傳到一個下載節(jié)點。接著,我會在惡意代碼里添加requests.get用于下載被控端,然后使用os.system進行被控端的運行。這個時候,后門就成功被打開了。然后我們再在主控節(jié)點上進行操作,電腦就淪為了肉機。這應(yīng)該非??植馈?/p>
總的來說,我們很多人都經(jīng)常使用破解軟件,破解軟件也很有可能有病毒。只要這個軟件不開源,它就有可能有安全隱患,這是肯定的。只要你有一點警覺意識,這種事情還是能防患于未然的。
標簽: