AI不能再人為作惡!美七大科技巨頭聯(lián)名,給AI生成內(nèi)容加水印
數(shù)字經(jīng)濟應(yīng)用實踐專家駱仁童博士人為:這是重大的進(jìn)步,天天被DeepFake忽悠的日子要結(jié)束了,為所有AI生成的內(nèi)容中嵌入水印是社會和技術(shù)發(fā)展的必然。
最近,美國七家科技巨頭公司聯(lián)合宣布,將在未來為所有AI生成的內(nèi)容嵌入可識別的水印,以維護信息安全。這項技術(shù)將有助于更安全地分享AI生成的文本、圖像、音頻和視頻,同時不會誤導(dǎo)別人。目前,對于不同形式的生成品分別如何嵌入水印這一點,尚不明確。但功能是確定的——嵌入后,用戶就可以知道當(dāng)前生成品的來歷,是哪個生成式AI工具搞出來的。
這項決定是因為用戶和政策制定者們對DeepFake等問題的高度關(guān)注。DeepFake已經(jīng)成為了一種威脅,而水印的添加可以天然隔開真和假,構(gòu)筑起一道障壁,杜絕混淆視聽。OpenAI表示將會研發(fā)一種水印機制,加入到視頻或音頻中。谷歌也表示除了水印以外,還會有其它創(chuàng)新型技術(shù),把關(guān)信息推廣。拜登政府還將創(chuàng)建一個基金會,確保對于AI的所有發(fā)展都要先有承諾和保證,再推廣落地,避免風(fēng)險。
這些公司做出的承諾強調(diào)了人工智能未來發(fā)展的三個原則:安全、保障、信任。這標(biāo)志著在開發(fā)負(fù)責(zé)任的人工智能上,人類邁出了關(guān)鍵的一步。
如何加水印
前段時間,來自馬里蘭大學(xué)的研究人員提出了一種高效的水印技術(shù),可以讓合成文本在很短的token跨度(僅需25個token)內(nèi)被檢測到,同時誤報率(將人類文本誤判為機器生成)極低。
水印是文本中的隱藏模式,對人類來說是不可察覺的,但可以通過算法識別為合成文本。
論文地址:https://arxiv.org/pdf/2301.10226.pdf
眾所周知,AI語言模型的工作原理是對逐個單詞進(jìn)行預(yù)測和生成。
在每個單詞之后,水印算法會隨機將語言模型的詞匯分成「綠色列表」和「紅色列表」,然后提示模型選擇綠色列表中的單詞。
在一段文字中,如果綠色列表中的單詞越多,那么這段文字很可能是由機器生成的。而由人寫的文字往往會包含更隨機的單詞組合。
舉個栗子,對于單詞「美麗」,水印算法可以將「花」歸類為綠色,將「蘭花」歸類為紅色。采用帶有水印算法的AI模型則更有可能使用「花」這個詞,而不是「蘭花」。
概括來說,水印算法所具備的特性如下:
- 水印可以在沒有任何模型參數(shù)知識或訪問語言模型API的情況下,通過算法進(jìn)行檢測。這一特性使得檢測算法可以開源,即使模型不是。這也使得檢測變得廉價且快速,因為無需加載或運行LLM。
- 可以使用標(biāo)準(zhǔn)語言模型生成帶有水印的文本,無需重新訓(xùn)練。
- 水印可以從生成文本的連續(xù)部分中檢測出來。這樣,即使只使用生成的一部分來創(chuàng)建更大的文檔,水印仍然是可檢測的。
- 如果不修改相當(dāng)比例的生成token,就無法去除水印。
- 可以用嚴(yán)格的統(tǒng)計方法來衡量水印是否被檢測到。
雖然馬里蘭大學(xué)提出的方法,仍有一些問題尚未解決。例如,在流媒體環(huán)境下,或者當(dāng)短跨度的水印文本位于較長的非水印文本中時,測試水印的最佳方法是什么?
但研究人員認(rèn)為,他們實驗的結(jié)果足以證實,水印可以成為對抗惡意使用生成模型的實用工具。
至于剩下的問題,就留給未來的研究了。
∷∷∷∷∷∷∷∷∷∷
駱仁童老師主講課程
智慧應(yīng)用 |?數(shù)字應(yīng)用?|?人工智能?
?數(shù)字化? | 產(chǎn)業(yè)智能?|?創(chuàng)新創(chuàng)業(yè)