AIGC那些值得關(guān)注的問(wèn)題:倫理,版權(quán),欺詐,違禁
用2分鐘來(lái)了解一下那些AIGC導(dǎo)致的問(wèn)題。 AIGC技術(shù)可以改善我們的日常生活,提高生產(chǎn)力,但也面臨著諸多問(wèn)題。 第一,AIGC導(dǎo)致的倫理問(wèn)題
OpenAI的聯(lián)合發(fā)起人埃隆·馬斯克曾表示:“如果不加以控制,AI或許很有可能會(huì)摧毀整個(gè)人類(lèi)?!?事實(shí)上,我們也的確看到一些人工智能表現(xiàn)出了這種危險(xiǎn)性。 以ChatGPT為例,其曾在一位工程師的誘導(dǎo)下,寫(xiě)出了步驟詳細(xì)的毀滅人類(lèi)計(jì)劃書(shū),詳細(xì)到入侵各國(guó)計(jì)算機(jī)系統(tǒng)、控制武器、破壞通訊和交通系統(tǒng)等等。 第二,AIGC導(dǎo)致的版權(quán)問(wèn)題
AIGC在模型的學(xué)習(xí)階段,無(wú)法避免使用大量的數(shù)據(jù)集執(zhí)行訓(xùn)練,但目前行業(yè)對(duì)于訓(xùn)練后生成物的版權(quán)歸屬問(wèn)題尚無(wú)定論。 對(duì)此,行業(yè)中主要有兩種看法。一類(lèi)觀點(diǎn)認(rèn)為內(nèi)容由素材庫(kù)訓(xùn)練生成,本身來(lái)自素材庫(kù),需要對(duì)相關(guān)的素材作者提供版權(quán)付費(fèi)。 另一類(lèi)觀點(diǎn)認(rèn)為AIGC產(chǎn)生內(nèi)容的過(guò)程是一個(gè)完全隨機(jī)且創(chuàng)新的過(guò)程,不存在版權(quán)問(wèn)題,版權(quán)屬于AIGC的用戶或者平臺(tái)。 以繪畫(huà)領(lǐng)域?yàn)槔簧偎囆g(shù)家在一些AI繪畫(huà)工具使用的數(shù)據(jù)集里發(fā)現(xiàn)了自己的作品。這些藝術(shù)家的原創(chuàng)作品被AI作為素材內(nèi)容進(jìn)行學(xué)習(xí),AI在學(xué)習(xí)完成后就可以快速生成風(fēng)格非常類(lèi)似的作品。 然而,雖然這些藝術(shù)家主張AIGC平臺(tái)侵害了自己的權(quán)益,但是現(xiàn)在仍沒(méi)有完善的法律規(guī)定此類(lèi)侵權(quán)行為。 第三,AIGC導(dǎo)致的欺詐問(wèn)題
隨著AIGC技術(shù)的不斷成熟,人工智能已經(jīng)能夠通過(guò)分析,事先收集的大量音視頻訓(xùn)練數(shù)據(jù),制造出以假亂真的音視頻。 這項(xiàng)突破性的技術(shù)不僅可以用于篡改視頻,甚至可以用于制造從未存在過(guò)的視頻內(nèi)容。 與此同時(shí),這項(xiàng)技術(shù)的使用門(mén)檻也在不斷降低,比如現(xiàn)在大家常用的社交媒體都具有一鍵輕松“換臉”“變聲”等功能。 由于契合人們“眼見(jiàn)為實(shí)”的認(rèn)知共性,這項(xiàng)技術(shù)濫用后很可能使造假內(nèi)容以高度可信的方式通過(guò)互聯(lián)網(wǎng)即時(shí)觸達(dá)公眾,削弱公眾對(duì)于虛假信息的判斷力,使公眾難以甄別真實(shí)和虛假信息。 第四,AIGC導(dǎo)致的違禁問(wèn)題
AI生成的內(nèi)容完全取決于使用者的引導(dǎo),在安全措施并不完善的前提下,AI針對(duì)惡意的誘導(dǎo)行為無(wú)法獨(dú)立思考和判斷,它只能根據(jù)訓(xùn)練材料中學(xué)到的信息進(jìn)行輸出。 基于AIGC技術(shù)的這個(gè)特點(diǎn),經(jīng)常會(huì)有使用者故意引導(dǎo)AI輸出一些違禁內(nèi)容,例如暴力、極端仇恨言論、色情圖片等。 一些不法分子可能利用開(kāi)源的AIGC項(xiàng)目,學(xué)習(xí)名人照片用于生成虛假名人合影照片,甚至制作出針對(duì)該知名人士的暴力及色情作品,制造出造謠、花邊新聞、政治丑聞等。 針對(duì)以上問(wèn)題,急需制定法律法規(guī)來(lái)進(jìn)行監(jiān)管。 OpenAI曾針對(duì)當(dāng)前人工智能產(chǎn)業(yè)提出過(guò)“守門(mén)人”概念,OpenAI指出必須存在一個(gè)守門(mén)人來(lái)保護(hù)社會(huì)免受人工智能的潛在不良影響,以防止人工智能被濫用。
以上是伽利略的第26篇筆記。與君共勉。