LLM課程推薦 | Full Stack LLM Bootcamp《大語言模型應用開發(fā)全棧指南》
這期課程是關于近期大火的LLM —— Full Stack LLM Bootcamp。被馬斯克稱為“地表最強AI科學家”的Andrej Karpathy 發(fā)推轉發(fā),贊其是LLM領域不可多得的高質(zhì)量課程……

順應近期大模型領域熱度的持續(xù)釋放,F(xiàn)SDL推出了Full Stack LLM Bootcamp《大語言模型應用開發(fā)全棧指南》課程,介紹了構建大語言模型產(chǎn)品的最佳實踐、工具及方法,內(nèi)容從提示工程到產(chǎn)品設計實現(xiàn)了全棧式覆蓋,還有當前LLM領域最前沿的技術分享。
Full Stack Deep Learning (FSDL)是一個學習社區(qū),由加州大學伯克利分校博士校友組織,熱衷和大家分享如何在現(xiàn)實世界中使用深度神經(jīng)網(wǎng)絡、機器學習產(chǎn)品構建的最佳實踐。自2018年以來,F(xiàn)SDL已在多個頂尖大學開設系列實戰(zhàn)訓練營和官方學期課程。
課程視頻

中英雙語字幕由矩池云翻譯制作,以便大家更好學習體驗。點擊頁面視頻前往觀看完整課程視頻。
課程主題
隨著LLM的興起,構建AI產(chǎn)品的方式已悄然改變——
在 LLM(大型語言模型)之前,要把一個想法變成產(chǎn)品,從零開始的模型訓練過程會遇到各種問題,擴展部署階段也會遇到瓶頸。
而現(xiàn)在,基于預訓練 LLM 和 API 的最小可行產(chǎn)品(MVP)可以讓你實現(xiàn)在一個小時內(nèi)完成配置并為用戶提供服務。
圍繞 LLM 已經(jīng)出現(xiàn)了一個集技術、工具和工具供應商的全新生態(tài)系統(tǒng)。即使是機器學習開發(fā)者也在快速適應、調(diào)整定位,嘗試從LLM生態(tài)中找到對自己最行之有效的技術和工具。
FSDL的該系列課程共11講,基本覆蓋了構建大語言模型產(chǎn)品的各個方面。前8講是LLM的實踐、工具及方法,后3講是來自LLM頭部企業(yè)的核心成員談各自經(jīng)驗及近期工作重心:

學會”魔法咒語“:提示工程和其他魔法
LLM運維:生產(chǎn)階段的部署與學習
優(yōu)化語言用戶界面
增強語言模型
快速發(fā)布LLM應用
下一個發(fā)展方向
LLM技術基礎
askFSDL項目演示
Reza Shabani介紹Replit訓練大語言模型的經(jīng)驗
Peter Welinder談OpenAI ChatGPT及近期工作(Agent方向)
Harrison Chase(LangChain)聊近期火熱的Agent
學習必備:Python編程經(jīng)驗;加分項:機器學習/前端/后端經(jīng)驗
課程主講
Charles Frye
加州大學伯克利分校理論神經(jīng)科學博士,研究神經(jīng)網(wǎng)絡近10年。相繼在Weights & Biases、?Gantry等公司研究開發(fā)AI/ML工具?。
Josh Tobin
加州大學伯克利分校人工智能博士,曾OpenAI任職研究科學家,Gantry聯(lián)合創(chuàng)始人兼CEO,為AI產(chǎn)品研發(fā)工具。
Sergey Karayev
加州大學伯克利分校人工智能博士,致力于開發(fā)人工智能產(chǎn)品,Gradescope、Volition聯(lián)合創(chuàng)始人。

相關學習資料:
快速發(fā)布LLM應用方面:
Robert Huben, “How does GPT-3 spend its 175B parameters?”?-?https://aizi.substack.com/p/how-does-gpt-3-spend-its-175b-parameters
Anthropic, “In-context Learning and Induction Heads”?深入探索了大語言模型 in-context learning 能力的來源 -?https://transformer-circuits.pub/2022/in-context-learning-and-induction-heads/index.html
最近的 RedPajama 項目中嘗試“復現(xiàn)”了LLaMA的訓練數(shù)據(jù)集 -?https://together.ai/blog/redpajama
Yao Fu, “How does GPT Obtain its Ability? Tracing Emergent Abilities of Language Models to their Sources”?為何要在訓練中包括代碼數(shù)據(jù), GPT 模型家族譜系圖, alignment tax 等內(nèi)容 - https://yaofu.notion.site/How-does-GPT-Obtain-its-Ability-Tracing-Emergent-Abilities-of-Language-Models-to-their-Sources-b9a57ac0fcf74f30a1ab9e3e36fa1dc1
Open Assistant數(shù)據(jù)集?https://huggingface.co/datasets/OpenAssistant/oasst1
Anthropic: Constitutional AI?https://www.anthropic.com/index/claudes-constitution
OPT優(yōu)化的血淚史?https://arxiv.org/pdf/2205.01068.pdf
模型inference優(yōu)化的手段?https://lilianweng.github.io/posts/2023-01-10-inference-optimization/
Prompt提示工程方面:
Dohan et al., “Language model cascades”?利用概率編程語言,重復prompt或調(diào)整單個或多個互相關聯(lián)的語言模型,來進行復雜的多步推理 -?https://arxiv.org/abs/2207.10342
Anthropic, “The Capacity for Moral Self-Correction in Large Language Models”?大型語言模型的“道德自我修正”能力 -?https://arxiv.org/abs/2302.07459?
Mishra et al., “Reframing Instructional Prompts to GPTk's Language”?GPTk語言教學提示重構 -?https://arxiv.org/pdf/2109.07830.pdf??
Ouyang et al., “Training language models to follow instructions with human feedback”?訓練語言模型以遵循帶有人類反饋的指令 -?https://arxiv.org/abs/2203.02155
Reynolds et al., “Prompt Programming for Large Language Models: Beyond the Few-Shot Paradigm”?-?https://arxiv.org/abs/2102.07350
Park et al., “Generative Agents: Interactive Simulacra of Human Behavior”?模仿人類可信行為的生成式智能體可以增強沉浸式環(huán)境和仿真環(huán)境中交互式應用,以實現(xiàn)人機交流及原型工具 -?https://arxiv.org/abs/2304.03442
Jacob Andreas, “Language Models as Agent Models”?尤其關注角色模擬和智能體的概念 -?https://arxiv.org/abs/2212.01681
B.Brown, “Language models are few-shot learners”?-?https://arxiv.org/abs/2005.14165
Min et al., “Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?” -?https://arxiv.org/abs/2202.12837
Wei et al., “Larger language models do in-context learning differently”?-?https://arxiv.org/abs/2303.03846
Khot et al., “Decomposed Prompting: A Modular Approach for Solving Complex Tasks”?拆解復雜任務 -?https://arxiv.org/abs/2210.02406
Press et al., “Measuring and Narrowing the Compositionality Gap in Language Models”?自動化拆解任務 -?https://arxiv.org/abs/2210.03350
Yao et al., “ReAct: Synergizing Reasoning and Acting in Language Models”?ReAct方法在大型語言模型中集成了推理能力和行動能力。這種集成通過提供推理和行動計劃之間的協(xié)同作用,使模型能夠更好地處理復雜的任務?-?https://arxiv.org/abs/2210.03629
Wei et al., “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models”?-?https://arxiv.org/abs/2201.11903
Kojima et al., “Large Language Models are Zero-Shot Reasoners”?引導模型通過一步一步的推理方式去解決復雜的多步推理?-?https://arxiv.org/abs/2205.11916
Kim et al., “Language Models can Solve Computer Tasks”?讓模型不斷自我審視修正答案 -?https://arxiv.org/abs/2303.17491
Wang et al., “Self-Consistency Improves Chain of Thought Reasoning in Language Models”?通過略微不同的 prompt 以及稍高一點的 temperature 設定,讓模型多生成幾個回答,最后投票來選擇最終的回答 -?https://arxiv.org/abs/2203.11171
Suzgun et al., “Challenging BIG-Bench Tasks and Whether Chain-of-Thought Can Solve Them”?- ?https://arxiv.org/abs/2210.09261
OpenAI Cookbook -?https://github.com/openai/openai-cookbook
LangChain AI Handbook -?https://www.pinecone.io/learn/series/langchain/
Learn Prompting -?https://learnprompting.org/docs/intro
Prompt Engineering Guide -?https://github.com/dair-ai/Prompt-Engineering-Guide
Lilian Weng’s Prompt Engineering -?https://lilianweng.github.io/posts/2023-03-15-prompt-engineering/
增強模型方面:
Embedding到底是什么?What is an embedding, anyways -?https://simplicityissota.substack.com/p/what-is-an-embedding-anyways
選擇embedding模型時,可參考mteb的leaderboard -?https://huggingface.co/spaces/mteb/leaderboard
George Pipis, “A High-Level Introduction To Word Embeddings”?-?https://predictivehacks.com/a-high-level-introduction-to-word-embeddings/
OpenAI embeddings——好快省。Reimers et al., “Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks”?-?https://arxiv.org/abs/1908.10084?
SOTA: Instructor. Su et al., “One embedder, Any Task: Instruction-Finetuned Text Embeddings”?-?https://arxiv.org/abs/2212.09741
Gao et al., “Precise Zero-Shot Dense Retrieval without Relevance Labels”?提出Hypothetical Document Embeddings (HyDE)方法 -?https://arxiv.org/abs/2212.10496?
Sumit Kumar, “Zero and Few Shot Text Retrieval and Ranking Using Large Language Models”?- ?https://blog.reachsumit.com/posts/2023/03/llm-for-text-ranking/
相似性搜索:Ethan Rosenthal, “Do you actually need a vector database?”?-?www.ethanrosenthal.com/2023/04/10/nn-vs-ann/
Pinecone, “Nearest Neighbor Indexes for Similarity Search”?-?www.pinecone.io/learn/vector-indexes/
Copilot Internals, GitHub Copilot 如何通過檢索來增強上下文 -?https://thakkarparth007.github.io/copilot-explorer/posts/copilot-internals