中國證監(jiān)會發(fā)布的AIGC措施綜合指南
1.簡介
隨著人工智能技術(shù)的快速發(fā)展,促進其健康發(fā)展和標(biāo)準(zhǔn)化已成為關(guān)鍵。鑒于ChatGPT所引發(fā)的人工智能生成內(nèi)容(AIGC)的趨勢,這一點尤其如此。因此,主要國家的監(jiān)管當(dāng)局正在密切監(jiān)測生成性人工智能,并執(zhí)行適當(dāng)?shù)姆ㄒ?guī)。在中國,中國網(wǎng)絡(luò)空間管理局(CAC)于2023年4月11日發(fā)布了《生成性人工智能服務(wù)管理辦法(征求意見稿)》("AIGC辦法"),旨在為中國的人工智能和算法相關(guān)行業(yè)在當(dāng)前的監(jiān)管方面提供更清晰的指導(dǎo)。本文將對《辦法》進行全面分析,以加強讀者對其意義的理解。
2.AIGC措施的基本方法和原則
(1) 促進AIGC的發(fā)展:AIGC措施的法律框架和適用范圍
AIGC措施由中國的三部支柱性數(shù)據(jù)法律授權(quán),即《網(wǎng)絡(luò)安全法》(CSL)、《數(shù)據(jù)安全法》(DSL)和《個人信息保護法》(PIPL)。這些上位法與《AIGC辦法》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》("算法規(guī)定")、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》("深度合成規(guī)定")以及即將出臺的《科學(xué)技術(shù)倫理審查辦法(試行)》相結(jié)合,構(gòu)成了確保AIGC行業(yè)合規(guī)的主要法律基礎(chǔ)和監(jiān)管框架。
AIGC措施》將生成性人工智能定義為基于算法、模型和規(guī)則來創(chuàng)建內(nèi)容的技術(shù)。其關(guān)于AIGC的范圍比《深度合成規(guī)定》的范圍更廣。針對中國公眾的AIGC公司,無論其實際位置如何,都要接受監(jiān)管部門的監(jiān)督。ChatGPT最近關(guān)閉來自中華人民共和國的用戶賬戶的行為可以被認為是一種預(yù)防措施,以避免受到中華人民共和國法律法規(guī)的約束?!禔IGC措施》還可能對 "特定目標(biāo) "的AIGC產(chǎn)品進行監(jiān)管,這意味著即使AIGC產(chǎn)品不直接針對公眾,而是針對特定的國內(nèi)企業(yè)用戶或定制設(shè)計的產(chǎn)品,它仍然可能受到《AIGC措施》的約束。
AIGC措施強調(diào)了優(yōu)先使用安全和可信的軟件產(chǎn)品、工具、計算和數(shù)據(jù)資源的重要性。值得注意的是,根據(jù)中華人民共和國法律法規(guī),對于關(guān)鍵信息基礎(chǔ)設(shè)施運營商和重要數(shù)據(jù)處理者來說,使用安全可信的網(wǎng)絡(luò)產(chǎn)品和服務(wù)是強制性的。詳細的指南或參考標(biāo)準(zhǔn)仍有待于在未來引入,以評估網(wǎng)絡(luò)產(chǎn)品和服務(wù)的安全性和可信度。
(2) AIGC措施的主要原則
辦法》規(guī)定了五項主要原則:堅持社會主義核心價值觀,禁止算法歧視,禁止不正當(dāng)競爭,防止虛假信息,不侵犯個人隱私和知識產(chǎn)權(quán)。值得強調(diào)的是,某些原則具有重要價值,值得強調(diào):
禁止算法歧視。禁止算法歧視是現(xiàn)行《電子商務(wù)法》規(guī)定的算法合規(guī)的一個關(guān)鍵環(huán)節(jié)。AIGC措施將禁止算法歧視擴展到其他方面,如算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型創(chuàng)建和優(yōu)化,以及服務(wù)提供。
禁止不正當(dāng)競爭。之前的《反不正當(dāng)競爭法》、《反壟斷訴訟解釋》以及4個配套的反壟斷相關(guān)法規(guī)對利用數(shù)據(jù)、算法、平臺優(yōu)勢進行不正當(dāng)競爭或壟斷行為進行了規(guī)范。目前的《反壟斷法》措施也涉及這些問題,反映了對有關(guān)算法的類似合規(guī)問題的回應(yīng)。
防止虛假信息。AIGC措施要求人工智能產(chǎn)生的內(nèi)容必須是準(zhǔn)確和真實的,服務(wù)提供商(在此定義為第3條第1款)必須采取措施,防止產(chǎn)生虛假信息。然而,什么是 "虛假信息 "仍不清楚。一些人工智能生成的內(nèi)容,如合成文章、合成圖片和深度假視頻,本質(zhì)上是不現(xiàn)實的,要求完全準(zhǔn)確可能與相關(guān)技術(shù)的初衷相矛盾。 考慮到人工智能技術(shù)仍處于早期階段,服務(wù)提供商要確保100%的準(zhǔn)確性,可能是一個巨大的挑戰(zhàn)。
不侵犯隱私和知識產(chǎn)權(quán)。 AIGC存在侵犯個人合法權(quán)益的風(fēng)險,如肖像權(quán)、名譽權(quán)、隱私權(quán)等。此外,因算法培訓(xùn)而產(chǎn)生的數(shù)據(jù)處理需求往往導(dǎo)致公司使用來自互聯(lián)網(wǎng)的數(shù)據(jù),有可能侵犯他人的知識產(chǎn)權(quán)或數(shù)據(jù)所有權(quán)。與此相對應(yīng)的是,《AIGC辦法》規(guī)定了不侵犯隱私和知識產(chǎn)權(quán)的原則。
3.服務(wù)提供者的義務(wù)
AIGC措施第5條將服務(wù)提供商定義為使用AIGC產(chǎn)品提供聊天、文本、圖像和聲音生成等服務(wù)的個人和組織。這也包括提供可編程的API接口以支持他人生成相關(guān)內(nèi)容的實體,但不包括AIGC的最終用戶。值得注意的是,根據(jù)AIGC措施,服務(wù)提供商被視為事實上的個人信息處理者,根據(jù)PIPL,服務(wù)提供商應(yīng)在AIGC服務(wù)期間獨立或與用戶共同決定處理個人信息的目的和方法。 情況并非總是如此。當(dāng)服務(wù)提供商只提供API接口時,他們可能既不確定目的也不確定方法。因此,"受托方 "的角色比 "個人信息處理者 "的角色更適用于服務(wù)提供者。不管怎么說,《AIGC措施》的主要內(nèi)容集中在服務(wù)提供商的廣泛義務(wù)上,下面將對其進行介紹和分析:
(1) 安全評估和算法備案的義務(wù)
辦法》規(guī)定,服務(wù)提供商應(yīng)按照《關(guān)于對具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)進行安全評估的規(guī)定》(以下簡稱《安全評估規(guī)定》)進行安全評估,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《算法管理規(guī)定》)履行算法備案義務(wù)。雖然《安全評估規(guī)定》和《算法管理規(guī)定》將此類評估和備案的范圍限定為具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù),但監(jiān)管部門實際上是根據(jù)潛在效果而非實際效果來確定此類屬性。 因此,建議生成型AIGC產(chǎn)品提供商完成安全評估和算法備案,因為大多數(shù)AIGC產(chǎn)品可能影響輿論或動員社會。目前還不清楚,如果上游服務(wù)商已經(jīng)完成了備案,下游服務(wù)商是否必須再次進行算法備案。
(2) 確保培訓(xùn)數(shù)據(jù)來源合法的義務(wù)
AIGC辦法》要求服務(wù)商從多方面確保培訓(xùn)數(shù)據(jù)的合法性,包括遵守法律法規(guī)、不侵犯知識產(chǎn)權(quán)、獲得處理個人信息的法律依據(jù)、確保真實性、準(zhǔn)確性、客觀性和多樣性,以及滿足其他監(jiān)管要求。鑒于源數(shù)據(jù)的合法性是算法培訓(xùn)固有的風(fēng)險,《AIGC措施》要求服務(wù)提供商確保這種合法性,可能表明未來對數(shù)據(jù)源的監(jiān)管力度加大。 此外,確保數(shù)據(jù)的客觀性和多樣性對防止算法歧視和信息孤島至關(guān)重要。 然而,《AIGC措施》是僅對源數(shù)據(jù)適用真實性和準(zhǔn)確性要求,還是也包括人工創(chuàng)建的產(chǎn)品(數(shù)據(jù)),目前還不清楚。
(3) 注釋和標(biāo)記的義務(wù)
AIGC措施規(guī)定了兩項不同的義務(wù):第8條的注釋義務(wù)和第16條的標(biāo)記義務(wù)。第8條要求服務(wù)提供商對訓(xùn)練數(shù)據(jù)進行準(zhǔn)確和一致的注釋,以協(xié)助算法的學(xué)習(xí)和訓(xùn)練。為了實現(xiàn)這一目標(biāo),AIGC措施要求服務(wù)提供商建立清晰、具體和可操作的注釋規(guī)則,并為注釋人員提供培訓(xùn)。 必須指出,準(zhǔn)確的注釋對于滿足AIGC措施第4條規(guī)定的訓(xùn)練算法模型的準(zhǔn)確性要求至關(guān)重要。第16條要求服務(wù)提供商遵守《深度合成規(guī)定》中列出的標(biāo)記義務(wù)。深度合成規(guī)定》中規(guī)定了兩類標(biāo)記要求:可追溯標(biāo)記和重要標(biāo)記??勺匪菪詷?biāo)志適用于所有生成的內(nèi)容,而重要標(biāo)志只要求用于可能混淆或誤導(dǎo)公眾的情況。AIGC措施擴大了 "深度合成條款 "中的重要標(biāo)識義務(wù),規(guī)定AIGC服務(wù)提供商必須使用重要標(biāo)識,無論是否有可能造成混淆或誤導(dǎo)。
(4) 核實終端用戶真實身份的義務(wù)。
AIGC《辦法》要求服務(wù)商按照CSL對最終用戶的真實身份信息進行認證。"后臺實名認證,前臺自愿參與 "已經(jīng)成為幾乎所有網(wǎng)絡(luò)服務(wù)的標(biāo)準(zhǔn)要求?;凇渡罹C規(guī)定》對實名認證的類似要求,《AIGC辦法》可以要求服務(wù)提供者收集以下信息進行實名認證:手機號碼、身份證號碼、統(tǒng)一社會信用代碼等。
(5) 防止過度依賴或成癮的義務(wù)
AIGC措施第10條要求服務(wù)提供商采取措施,防止用戶過度依賴或沉迷于生成的內(nèi)容。為保障用戶權(quán)利,《辦法》規(guī)定服務(wù)提供商應(yīng)界定并公開披露其服務(wù)的預(yù)期用戶、使用場景和目的。然而,合規(guī)義務(wù)、用戶保護和道德考慮可能因不同的業(yè)務(wù)場景而不同,有必要進一步細化。服務(wù)提供商可以實施彈出式提醒或使用頻率和時間限制等措施,以避免用戶沉迷。對算法機制、模型、數(shù)據(jù)和應(yīng)用結(jié)果的定期評估對于確保符合道德標(biāo)準(zhǔn)至關(guān)重要。AIGC行業(yè)在未來可能會引入類似 "未成年人保護 "運動的監(jiān)管活動,以防止用戶上癮。
(6) 限制使用個人信息的義務(wù)
辦法》規(guī)定,服務(wù)提供商必須保障用戶的輸入信息和使用記錄,不得保留任何可能暴露其身份的非法輸入信息,不得根據(jù)輸入信息或使用情況建立用戶檔案,不得向第三方披露用戶輸入信息。但是,與PIPL和電子商務(wù)法等上位法相比,《AIGC辦法》并沒有對作為個人信息處理者或服務(wù)提供者的服務(wù)提供商施加額外的義務(wù)。但服務(wù)提供商仍應(yīng)根據(jù)PIPL的規(guī)定,在進行特殊的個人信息處理活動(如用戶分析)時,單獨取得同意或其他法律依據(jù)。
(7) 禁止產(chǎn)生歧視性內(nèi)容的義務(wù)
AIGC措施要求服務(wù)提供商防止產(chǎn)生基于用戶的種族、民族、性別和其他因素的歧視性內(nèi)容。這項義務(wù)包括在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化以及服務(wù)提供方面防止歧視等措施。服務(wù)提供商還必須監(jiān)測其產(chǎn)品,以確保它們不產(chǎn)生歧視性內(nèi)容。違反這些義務(wù)可能會導(dǎo)致《美國政府采購委員會措施》下的問責(zé)。然而,完全禁止生成帶有任何歧視性暗示的內(nèi)容可能會限制在生成的小說和腳本中描繪對立面的能力,可能會損害AIGC服務(wù)的自由應(yīng)用和便利性。
(8) 妥善處理用戶投訴和侵權(quán)內(nèi)容的義務(wù)
AIGC措施第13條納入了PIPL中關(guān)于個人行使權(quán)利的規(guī)則,并明確要求服務(wù)提供商建立接受和處理用戶投訴的機制,及時處理用戶更正、刪除或屏蔽個人信息的要求。第13條后半部分還要求服務(wù)提供者在生成的內(nèi)容侵犯他人的權(quán)利或利益,如隱私權(quán)、肖像權(quán)、名譽權(quán)、商業(yè)秘密等,或在其他非法的情況下,防止持續(xù)的傷害。 必須指出的是,服務(wù)提供者應(yīng)在生成階段采取必要措施,制止侵權(quán)或非法的內(nèi)容,及時刪除、屏蔽或斷開鏈接,必要時甚至終止服務(wù)。因此,服務(wù)提供商必須承擔(dān)更高的注意義務(wù),在合理和技術(shù)可行的范圍內(nèi),在內(nèi)容生成階段實施監(jiān)控和審計機制。
(9) 確保服務(wù)穩(wěn)定的義務(wù)
AIGC措施要求服務(wù)提供商確保其生成性人工智能服務(wù)生命周期的穩(wěn)定性,其中 "生命周期 "是指此類服務(wù)的存在期限。但根據(jù)我們的觀察,目前市場上只有數(shù)量有限的AIGC產(chǎn)品能夠提供 "穩(wěn)定的服務(wù)"。監(jiān)管部門有必要進一步澄清,以解釋這一要求,因為缺乏這種要求可能會在未來引起用戶和服務(wù)提供商之間的訴訟。
(10) 優(yōu)化算法模型的義務(wù)
AIGC措施規(guī)定,服務(wù)提供商應(yīng)通過實施內(nèi)容過濾措施,包括刪除敏感詞和其他不適宜的內(nèi)容,來防止不當(dāng)內(nèi)容的產(chǎn)生。為了回應(yīng)用戶的報告和意見,防止不適宜內(nèi)容的再次產(chǎn)生,服務(wù)提供商還應(yīng)在發(fā)現(xiàn)不適宜內(nèi)容或收到用戶的投訴后三個月內(nèi)優(yōu)化和訓(xùn)練算法模型。這一算法訓(xùn)練和優(yōu)化義務(wù)旨在通過補充內(nèi)容過濾和其他措施來加強內(nèi)容控制。然而,根據(jù)AIGC措施,服務(wù)提供商現(xiàn)在有義務(wù)在三個月內(nèi)解決人工智能的 "漏洞",這對AIGC服務(wù)提供商來說無疑是一個高標(biāo)準(zhǔn)的義務(wù),無論是在技術(shù)上還是實踐上。依靠用戶報告作為算法優(yōu)化和重新訓(xùn)練的觸發(fā)點,可能會給服務(wù)提供商帶來巨大的成本負擔(dān)。
(11) 披露和教育的義務(wù)
AIGC措施要求服務(wù)提供商根據(jù)CAC和主管部門的要求,披露必要的信息,包括預(yù)培訓(xùn)和優(yōu)化培訓(xùn)數(shù)據(jù)的來源。服務(wù)提供商還必須教育用戶理解并合理使用生成的內(nèi)容。
這項義務(wù)允許行政當(dāng)局根據(jù)公司的信息披露義務(wù),主動干預(yù)公司的技術(shù)發(fā)展。這代表了以往被動監(jiān)管方式的轉(zhuǎn)變,因為CAC和主管部門有行政權(quán)力從服務(wù)提供商那里獲得更多關(guān)于人工智能系統(tǒng)開發(fā)的信息。但保護公司的商業(yè)秘密和信息披露義務(wù)之間的界限仍有待明確。
關(guān)于教育用戶的義務(wù),服務(wù)提供商可以通過將相關(guān)教育內(nèi)容納入平臺規(guī)則、隱私政策或宣傳小冊子來履行。
(12) 維護社會道德的義務(wù)
AIGC措施禁止將AIGC產(chǎn)品用于非法或不道德的活動,如網(wǎng)上炒作、惡意發(fā)帖和評論、發(fā)送垃圾郵件、編寫惡意軟件以及不正當(dāng)?shù)纳虡I(yè)營銷,強調(diào)服務(wù)提供商有義務(wù)積極監(jiān)督此類行為。然而,在準(zhǔn)確識別非法或不道德行為以及平衡用戶隱私和監(jiān)管需求方面可能存在挑戰(zhàn)。這些問題需要所有利益相關(guān)者的集體努力來解決。
4.處罰和生效日期
AIGC措施》根據(jù)CSL、DSL和PIPL進行處罰,并賦予CAC和主管部門在上級法律沒有明確規(guī)定的情況下發(fā)布處罰的酌情權(quán)。這些處罰措施具有很強的威懾作用。AIGC措施將于2023年生效,鑒于該行業(yè)目前的狀況,其正式發(fā)布預(yù)計將很快發(fā)生。
5.結(jié)論
AIGC措施為發(fā)展中國的算法相關(guān)產(chǎn)業(yè)提供了新的指導(dǎo)。然而,一些細節(jié)仍然需要立法者澄清。辦法》對AIGC服務(wù)提供商規(guī)定了很高的合規(guī)義務(wù),提出了平衡監(jiān)管和產(chǎn)業(yè)發(fā)展的問題。我們建議人工智能公司在公眾評論期間向立法者提供切實可行的建議和反饋,以促進《辦法》的有效實施。
這篇文章的內(nèi)容旨在為該主題提供一般指導(dǎo)。應(yīng)就您的具體情況征求專家意見。
2023年4月25日
作者:?蔡鵬?、?肖普玲?、?陳玉潔