ChatGPT的局限性及商業(yè)化應(yīng)用限制討論

首先,ChatGPT僅使用公開(kāi)可用的信息,這是其第一個(gè)局限。如果基礎(chǔ)信息缺失、過(guò)時(shí)、模糊或過(guò)于泛化,AI生成的內(nèi)容就將不會(huì)準(zhǔn)確。
只有在使用企業(yè)內(nèi)部專有信息和知識(shí)創(chuàng)建特定的GPT時(shí),才會(huì)出現(xiàn)真正的商業(yè)化解決方案。但對(duì)企業(yè)而言,專有數(shù)據(jù)至關(guān)重要。數(shù)據(jù)安全咨詢公司Cyberhaven的一份報(bào)告顯示,企業(yè)員工與ChatGPT的聊天內(nèi)容中,有11%屬于機(jī)密信息。
平均每家公司每周都會(huì)向ChatGPT泄露數(shù)百次的商業(yè)隱私信息。為解決這個(gè)問(wèn)題,許多企業(yè)正采取相應(yīng)措施,有選擇地限制員工使用ChatGPT。亞馬遜、微軟和沃爾瑪?shù)裙疽严騿T工發(fā)出警告。
ChatGPT的商業(yè)化應(yīng)用在某些行業(yè)受限制
Esade專家Esteve Almirall解釋道:“在具有明確商業(yè)模式、清晰業(yè)務(wù)模式的公司中(法律、咨詢或軟件開(kāi)發(fā)行業(yè)),ChatGPT的集成應(yīng)用將迅速推進(jìn)。
相較于上面提到的集成ChatGPT只為增強(qiáng)自身能力的,還有一些可以由ChatGPT完全替代的行業(yè),如客戶服務(wù),但在此行業(yè)ChatGPT的集成應(yīng)用進(jìn)度會(huì)更慢,在競(jìng)爭(zhēng)較少或沒(méi)有競(jìng)爭(zhēng)的行業(yè),ChatGPT集成應(yīng)用的進(jìn)度更是龜速,如公共服務(wù)。[1]
生成式技術(shù)牽涉到一些棘手問(wèn)題:不好確定輸出的內(nèi)容是真是假,可能造成無(wú)法預(yù)料的后果。
這種情況可能發(fā)生在文本形態(tài),同時(shí)也適用于圖像生成領(lǐng)域。使用這種生成式技術(shù)創(chuàng)建圖像可能涉及道德和法律問(wèn)題。由于AI算法本身依據(jù)統(tǒng)計(jì)規(guī)律和概率去學(xué)習(xí)訓(xùn)練數(shù)據(jù),它有時(shí)會(huì)對(duì)數(shù)據(jù)中的偏見(jiàn)進(jìn)行放大。對(duì)于生成式內(nèi)容,相關(guān)責(zé)任方有義務(wù)披露其是由AI生成的,以便人類能夠辨別。
此外,這種生成式內(nèi)容的出現(xiàn),需要重新思考創(chuàng)造力和知識(shí)產(chǎn)權(quán)問(wèn)題。AI大規(guī)模使用人類先前創(chuàng)作的內(nèi)容來(lái)生成新的內(nèi)容,這意味著AI在某種程度上利用了人類的創(chuàng)新成果。這種背景下產(chǎn)生的文化成果,可能只是算法工程的結(jié)果,而不是人類文明活動(dòng)的真實(shí)智慧結(jié)晶。[2]
參考資料
[1]https://www.bbva.com/en/innovation/how-businesses-can-leverage-chatgpt/
[2]https://www.94c.cc/info/the-limitations-of-chatgpt.html