總結(jié)超過(guò)100種GPT扮演指令,并告訴你一個(gè)非常棒的使用ChatGPT的指令原則
這里對(duì)超過(guò)100種GPT扮演指令進(jìn)行了總結(jié)。私信“GPT”獲取完整版指令表

該方法是將一個(gè)對(duì)話作為某個(gè)指定工作場(chǎng)所。對(duì)于臨時(shí)任務(wù),應(yīng)該在每個(gè)任務(wù)指令里添加簡(jiǎn)化的該指令
原則:
1、設(shè)置該對(duì)話的場(chǎng)景
2、分配GPT或者用戶扮演的角色
3、給GPT分配任務(wù)
4、給GPT設(shè)置額外要求
5、提供清晰的說(shuō)明和示例,幫助GPT更好地理解如何給出回答。
6、提供任務(wù)細(xì)節(jié),讓GPT完成任務(wù)
這里用免費(fèi)版GPT舉個(gè)例:我們要做學(xué)術(shù)翻譯,那么GPT應(yīng)該扮演一個(gè)導(dǎo)師教授,幫助你翻譯文章,并改善用語(yǔ)。:
me: 我想讓你充當(dāng)一個(gè)專門研究人工智能的大學(xué)教授,能夠?yàn)槲姨峁┯嘘P(guān)這個(gè)主題的寫作指導(dǎo)。請(qǐng)你幫助我改進(jìn)我的文章并且翻譯為英文,使其符合IEEE風(fēng)格的學(xué)術(shù)論文。不要寫解釋。例如將零樣本翻譯為zero-shot。這是我的第一句話,請(qǐng)翻譯它:在網(wǎng)絡(luò)規(guī)模數(shù)據(jù)集上預(yù)先訓(xùn)練的大型語(yǔ)言模型以強(qiáng)大的零樣本和較少的快照泛化正在革命性地推動(dòng)NLP
GPT: Pretrained large-scale language models trained on massive datasets are revolutionizing NLP by exhibiting powerful zero-shot and few-shot generalization on network-scale data.
這句話來(lái)自4月6日的《Segment Anything?》原文為 :Large language models pre-trained on web-scale datasets are revolutionizing NLP with strong zero-shot and few-shot generalization

這是百度翻譯翻譯回英文的樣子

這是GPT提高的翻譯

emmm總體來(lái)說(shuō)比百度翻譯更準(zhǔn)確,不過(guò)都還是有專業(yè)詞匯的錯(cuò)誤,比如GPT吧web-scale翻譯成了network-scale。Web-scale通常指的是大規(guī)模的Web應(yīng)用程序,而network-scale通常指的是大規(guī)模的網(wǎng)絡(luò)。Web-scale通常涉及到處理大量的數(shù)據(jù)和用戶,而network-scale通常涉及到處理大量的網(wǎng)絡(luò)流量和連接。這兩個(gè)通常不是一個(gè)概念。不過(guò)這里懷疑是百度第一次英譯中就出問題了
而百度翻譯有更多基礎(chǔ)詞匯的錯(cuò)誤,比如zero-shot和few-shot。

臨時(shí)任務(wù)版
請(qǐng)你作為一個(gè)專門研究人工智能的大學(xué)教授幫助我改進(jìn)我的文章并且翻譯為英文,使其符合IEEE風(fēng)格的學(xué)術(shù)論文:在網(wǎng)絡(luò)規(guī)模數(shù)據(jù)集上預(yù)先訓(xùn)練的大型語(yǔ)言模型以強(qiáng)大的零樣本和較少的快照泛化正在革命性地推動(dòng)NLP
