大火的ChatGPT能為自動(dòng)駕駛帶來什么?
/導(dǎo)讀/
最近的科技圈,大家都被微軟推出的ChatGPT刷屏,作為工智能公司OpenAI于2022年11月推出的聊天機(jī)器人,其能夠通過學(xué)習(xí)和理解人類的語言來進(jìn)行對(duì)話,還能根據(jù)聊天的上下文進(jìn)行互動(dòng),甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務(wù),并且智能性遠(yuǎn)超當(dāng)下所有的人機(jī)交互模型。而ChatGPT的轟動(dòng)也讓谷歌、百度等以搜索為主要業(yè)務(wù)的大廠感受到了前所未有的壓力,也隨即推出了自研的類ChatGPT模型,然而實(shí)際的使用效果還得打個(gè)問號(hào)。
那么,如果對(duì)于文本的學(xué)習(xí)已經(jīng)能夠達(dá)到如此智能的地步,對(duì)于自動(dòng)駕駛行業(yè),ChatGPT能夠?yàn)槠鋷硎裁茨??是否能夠?qū)_從業(yè)者多年的決策難題做出突破呢?
自動(dòng)駕駛中的決策難題
在自動(dòng)駕駛行業(yè)中,決策規(guī)劃作為整體系統(tǒng)的大腦,處于算法中的核心模塊,對(duì)于自動(dòng)駕駛功能的實(shí)現(xiàn)以及安全性的保障起著重要的作用。目前包括輔助駕駛及自動(dòng)駕駛功能的決策實(shí)現(xiàn)上,大多數(shù)企業(yè)都采用了基于規(guī)則的方式,這種方式能夠極大程度地保障在應(yīng)對(duì)不同場(chǎng)景時(shí)的決策的安全性。不同于強(qiáng)化學(xué)習(xí),強(qiáng)化學(xué)習(xí)具有致命的弱點(diǎn),那就是出了問題很難去追溯到原因,只能不停的迭代更新模型,以針對(duì)當(dāng)前場(chǎng)景獲得期望的輸出結(jié)果。
另一方面,強(qiáng)化學(xué)習(xí)需要進(jìn)行大規(guī)模的訓(xùn)練,這樣對(duì)其執(zhí)行結(jié)果的評(píng)價(jià)也是難點(diǎn)之一,如果不能合理地評(píng)價(jià)模型給出的結(jié)果,那么決策的智能性則無法進(jìn)步,甚至在極端場(chǎng)景下給出錯(cuò)誤的決定,讓車輛處于危險(xiǎn)之中。以上種種原因,使得在自動(dòng)駕駛行業(yè)中,基于強(qiáng)化學(xué)習(xí)的決策規(guī)劃系統(tǒng)還遠(yuǎn)遠(yuǎn)未達(dá)到成熟,而基于規(guī)則的系統(tǒng)也難以應(yīng)對(duì)極端的Corner case,這也使得從業(yè)者們普遍認(rèn)為L4甚至L5級(jí)別的成熟自動(dòng)駕駛難以實(shí)現(xiàn)的根本原因。
ChatGPT能給自動(dòng)駕駛帶來什么?
那么就以上的決策難題,ChatGPT能夠?yàn)樽詣?dòng)駕駛帶來什么樣的突破呢?首先,我們先回答 ChatGPT 到底是什么?它是個(gè)基于上千億超大語料參數(shù)組成的 GPT3.0 架構(gòu)訓(xùn)練出來的一個(gè)自然語言處理聊天工具。ChatGPT 的算法采用了 Transformer 神經(jīng)網(wǎng)絡(luò)架構(gòu),具有很好的時(shí)序數(shù)據(jù)處理能力。
Transformer 對(duì)于自動(dòng)駕駛行業(yè)的人員來說并不陌生,它是一種結(jié)構(gòu)簡(jiǎn)單的編解碼器,幾乎可以無限堆疊,從而形成一種大規(guī)模的預(yù)訓(xùn)練語言模型?;?Transformer 模型構(gòu)成的 GPT 架構(gòu)可以很好地完成多種語言處理任務(wù),填空、造句、分段、翻譯等等。另外,ChatGPT 還需要使用監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)來實(shí)現(xiàn)。具體來說,ChatGPT 使用了一種叫「人類反饋強(qiáng)化學(xué)習(xí)(RLHF)」的訓(xùn)練方法,在訓(xùn)練中可以根據(jù)人類反饋,保證對(duì)無益、失真或偏見信息的最小化輸出。
從對(duì)ChatGPT的分析我們可以看出,其是利用人類反饋進(jìn)行強(qiáng)化學(xué)習(xí)的產(chǎn)物,并且其強(qiáng)大的識(shí)錯(cuò)能力能夠?qū)﹀e(cuò)誤的信息進(jìn)行判別與糾正。那么回想自動(dòng)駕駛的決策難題,其核心技術(shù)將可以為自動(dòng)駕駛帶來前所未有的突破。那么具體怎么實(shí)施呢?
首先,自動(dòng)駕駛決策算法中有一類叫做模仿學(xué)習(xí),利用人類駕駛員針對(duì)不同場(chǎng)景的執(zhí)行策略讓機(jī)器進(jìn)行學(xué)習(xí),遇到類似的場(chǎng)景便可以采用模仿人類的駕駛策略。
其次,要想獲得一個(gè)經(jīng)驗(yàn)老道的老司機(jī)的決策能力,必須看得多,學(xué)得多。因此需要引入大量的人類駕駛數(shù)據(jù),并灌輸?shù)綑C(jī)器學(xué)習(xí)的模型之中。在這一步,由于牽涉到大量的數(shù)據(jù)訓(xùn)練,采取人工標(biāo)注顯然是不現(xiàn)實(shí)的。而ChatGPT的成功證明了,機(jī)器對(duì)于數(shù)據(jù)判別的好壞是能夠?qū)W習(xí)成功到如此地步的,那么采用人類反饋強(qiáng)化學(xué)習(xí)的思想,可以訓(xùn)練出模型來驗(yàn)證、評(píng)價(jià)機(jī)器模型的輸出,使其不斷進(jìn)步,最終達(dá)到人類的駕駛水平。
最后,便是引入人類駕駛的真實(shí)接管數(shù)據(jù),在其中嘗試使用「人類反饋強(qiáng)化學(xué)習(xí)(RLHF)」。一般來說,人類司機(jī)的每一次接管,都是對(duì)自動(dòng)駕駛策略的一次人為反饋;這個(gè)接管數(shù)據(jù)可以被簡(jiǎn)單當(dāng)成一個(gè)負(fù)樣本來使用,就是自動(dòng)駕駛決策被糾正的一次記錄。同時(shí)也可以被當(dāng)作改進(jìn)認(rèn)知決策的正樣本來學(xué)習(xí)。
除此之外,ChatGPT也可以用來分析大量的駕駛?cè)罩緮?shù)據(jù),以找出駕駛員在特定情境下的行為規(guī)律,并用這些信息來訓(xùn)練自動(dòng)駕駛控制系統(tǒng),從而提高它們?cè)趶?fù)雜情境下的決策能力??偟膩碚f,ChatGPT的分析能力可以為改善自動(dòng)駕駛技術(shù)的情景判斷能力提供有力的支持。
ChatGPT帶來的困難與挑戰(zhàn)
盡管ChatGPT十分具有顛覆性,但亞馬遜卻對(duì)其充滿了警惕,甚至警告員工不要與ChatGPT分享機(jī)密信息。微軟高級(jí)工程師也表示“請(qǐng)不要將敏感數(shù)據(jù)發(fā)送給OpenAI終端,因?yàn)樗麄兛赡軙?huì)將其用于訓(xùn)練未來的模型?!?/span>
原因就是我們老生常談的話題:數(shù)據(jù)隱私。
以ChatGPT的數(shù)據(jù)體量,人類在ChatGPT面前沒有秘密可言,任何人類留存在網(wǎng)絡(luò)的信息,ChatGPT應(yīng)該都搜索得到,包括我們的隱私。從ChatGPT的表現(xiàn)來看,小到人類個(gè)人都可能成為其受害者,個(gè)人或企業(yè)肖像、名譽(yù)等人格和財(cái)產(chǎn)權(quán)益可能受到損害,大到ChatGPT會(huì)給社會(huì)秩序、國家政治穩(wěn)定和安全造成巨大威脅。自動(dòng)駕駛領(lǐng)域也不例外,并且直接關(guān)系到人類的出行安全,其使用更應(yīng)該得到謹(jǐn)慎處理及關(guān)注。
所幸的是,ChatGPT現(xiàn)在還屬于人類管控,而且應(yīng)該是被凍結(jié)了找出隱私的功能。因此,不管是汽車行業(yè)還是其他行業(yè),在使用ChatGPT上,并不是只管用就行,還存在著技術(shù)上的挑戰(zhàn)。除了數(shù)據(jù)安全外,還需要大量的專業(yè)知識(shí)和高質(zhì)量的訓(xùn)練數(shù)據(jù),以及專業(yè)的技術(shù)支持,以解決技術(shù)上的問題和難題。
總結(jié)
ChatGPT的橫空出世對(duì)于自動(dòng)駕駛行業(yè)的從業(yè)者們來說無疑是感到激動(dòng)興奮的,其成功證明了機(jī)器可以學(xué)習(xí)到人類的知識(shí)到何種地步,也證明了類人駕駛在未來的可行性。在未來,ChatGPT將對(duì)自動(dòng)駕駛行業(yè)產(chǎn)生重要的影響,將改善包括車載語言識(shí)別、智能座艙、導(dǎo)航系統(tǒng)等等智能化設(shè)備,為消費(fèi)者提供更加高效和便捷的駕駛體驗(yàn)。在自動(dòng)駕駛行業(yè)不斷發(fā)展的過程中,ChatGPT將成為一把利器,推動(dòng)行業(yè)技術(shù)的提升和創(chuàng)新。更多咨詢請(qǐng)關(guān)注智車科技公眾平臺(tái)!
- End -