深藍(lán)生成式預(yù)訓(xùn)練語言模型理論與實戰(zhàn)完結(jié)
2023-07-06 12:31 作者:一起拼課學(xué)習(xí)下_ | 我要投稿
已報名入坑
第9章從GPT到ChatGPT基于人類反饋的強(qiáng)化學(xué)習(xí)
第8章訓(xùn)練你的簡版生成式語言模型GPT
第7章ChatGPT的內(nèi)核Transformer詳解
第6章Transformer的核心機(jī)制詳解注意力Attention
第5章Transformer的基礎(chǔ)架構(gòu)序列到序列Seq2Seq
第4章BERT,GPT等大模型的起點神經(jīng)概率語言模型NPLM
第3章詞的向量表示是如何習(xí)得的Word2Vec實戰(zhàn)
第2章語言模型的早期形式Ngram實戰(zhàn)
第1章從圖靈測試到ChatGPTNLP技術(shù)發(fā)展簡史
第10章站在巨人的肩上 Prompt Engineering(提示工程)
標(biāo)簽: