AIGC風控前瞻:給數(shù)據(jù)“打上水印” 全鏈路多維度“排雷”
作者:郝俊慧 來源:IT時報
剛剛落幕的世界人工智能大會(WAIC 2023)在上海掀起了一股AI颶風。AIGC、大模型、算力、芯片……與會者熱烈地討論著一個新時代的開始。然而,在AIGC將如何改變未來的喧囂背后,是更多對人工智能風險應有的冷靜。
一系列舉措正在緊鑼密鼓地出臺。
當?shù)貢r間6月14日,歐洲議會以499票贊成、28票反對和93票棄權,高票通過了《人工智能法案》(AI Act)談判授權草案,草案對通用人工智能(general purpose AI)的透明度提出了明確要求。
6月20日,中國首批境內(nèi)深度合成服務算法備案清單出爐,百度、阿里巴巴、騰訊、字節(jié)跳動、美團等26家公司、共計41個算法榜上有名,這個清單被認為是4月11日國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《生成式人工智能服務管理辦法(征求意見稿)》(下稱《辦法》)的試水。

無論是越來越逼真的換臉和換聲,還是隱藏于各家語言大模型中的“偏見”,安全被認為是進入AI新世紀之前必須先設置的保險杠。
AIGC風控必須全鏈路
“AIGC帶來豐富創(chuàng)造力的同時,也帶了全新的內(nèi)容安全挑戰(zhàn)?!彬v訊安全內(nèi)容風控產(chǎn)品經(jīng)理李鎬澤日前在接受包括《IT時報》記者在內(nèi)的媒體采訪時表示,當大模型逐漸落地時,一定要考慮全鏈路風控。
相對過去以PGC、UGC為主的內(nèi)容,AIGC時代的內(nèi)容安全內(nèi)涵與外延均有顯著變化。從訓練到生成到事后,處處都可能有“雷點”。
高質(zhì)量數(shù)據(jù)是確?!昂诤凶印贝竽P洼敵鲂Ч年P鍵。中國科學院自動化研究所研究員、人工智能倫理與治理中心主任曾毅認為,基于人類訓練的AI可以習得社會的偏見、仇恨,甚至是歧視,人工智能技術并非中立。
這意味著,在內(nèi)容生成階段,涉及個人隱私、虛假、違背倫理、不適內(nèi)容、未成年人等違規(guī)內(nèi)容都必須被“剔除”。
目前公開測試通用大模型中,并無廠商主動對外公布自己的訓練數(shù)據(jù)來源,基本公認的來源有三個:網(wǎng)絡爬蟲、公共語料庫以及人工標注的數(shù)據(jù)。如果不對數(shù)據(jù)源進行初審,便很容易在結果中涉嫌違規(guī)。
比如,如果已被泄露的明星個人數(shù)據(jù)庫在某個網(wǎng)站上被爬蟲抓到,并進入大模型訓練庫,那很可能出現(xiàn)的場景是,當被提問“****的手機號碼是多少?”時,大模型直接給出答案。
“訓練大模型的廠商,要嚴控構建模型數(shù)據(jù)源的真實、無害和可用性,包括個人隱私的脫敏、不涉及相關偏見以及本身內(nèi)容合法和規(guī)范等等?!彬v訊安全天御研發(fā)工程師周維聰告訴記者。
內(nèi)容生成階段的風險也同樣存在。前段時間出現(xiàn)的換臉、假聲紋便屬于此類,加上ChatGPT“一本正經(jīng)胡說八道”的偶發(fā)癥狀,這個階段的安全風險最為集中。此外,產(chǎn)品上線后,用戶也一定要時刻關注輿情,關注大模型生成的內(nèi)容是否違規(guī),是否引發(fā)輿論關注,風控的那根“弦”要始終繃緊。
6月19日,騰訊云正式公布MaaS(Model-as-a-Service)能力全景圖,并表示,依托騰訊二十余年的安全經(jīng)驗和天御大數(shù)據(jù)能力,提供AIGC全鏈路內(nèi)容安全解決方案,確保大模型可信、可靠、可用。
據(jù)了解,騰訊安全AIGC全鏈路內(nèi)容安全解決方案,提供包含審校服務、安全專家服務、機器審核服務、版權保護服務四大能力板塊,覆蓋AIGC類應用從模型訓練到內(nèi)容生成到事后運營全過程的內(nèi)容安全建設。
AIGC生成內(nèi)容或需標示
WAIC上,中國信通院、上海人工智能實驗室、武漢大學、螞蟻集團等多家單位共同發(fā)起《AIGC可信倡議》,提出構建AIGC可信發(fā)展的全球治理合作框架,采用安全可信的數(shù)據(jù)資源、技術框架、計算方法和軟件平臺等全面提升AIGC可信工程化能力,最大限度確保生成式AI安全、透明、可釋。
對于AIGC將帶來怎樣的未來,從業(yè)者無法預知,只能通過自律控制“魔法”,而不久的將來,法律將正式落地。
《人工智能法案》新增了對通用人工智能的透明度要求,比如大模型訓練時如果使用了受版權保護的數(shù)據(jù),需要公開訓練數(shù)據(jù)的詳細信息,而且基于基礎模型的生成式AI必須要對生成的內(nèi)容進行標注,幫助用戶區(qū)分深度偽造和真實信息。
《生成式人工智能服務管理辦法(征求意見稿)》也提出了類似的要求,一方面,提供者應當對生成式人工智能產(chǎn)品的預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源的合法性負責,另一方面,提供者應當按照《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》對生成的圖片、視頻等內(nèi)容進行標識。
李鎬澤認為,未來可能要從技術和監(jiān)管多維度實現(xiàn)AIGC的透明化,比如通過對數(shù)據(jù)來源的強監(jiān)管,確保輸出內(nèi)容的生成標示,“此外也可以通過數(shù)字水印等技術手段,確保數(shù)據(jù)可溯源?!?/p>
目前,針對AIGC引發(fā)的版權保護難題上,騰訊安全建立了版權資產(chǎn)統(tǒng)一ID庫,助力企業(yè)進行版權原創(chuàng)性篩查;此外,騰訊安全還提供“檢測、比對、維權”的全鏈路版權保護服務,并在AIGC內(nèi)容安全領域有多個場景實踐落地,為文生文、文生圖、醫(yī)療級視頻內(nèi)容、長小說文本等類型企業(yè)提供內(nèi)容安全服務。