最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

LLM課程推薦 | Full Stack LLM Bootcamp《大語言模型應用開發(fā)全棧指南》

2023-07-28 11:31 作者:矩池云  | 我要投稿

這期課程是關于近期大火的LLM —— Full Stack LLM Bootcamp。被馬斯克稱為“地表最強AI科學家”的Andrej Karpathy 發(fā)推轉發(fā),贊其是LLM領域不可多得的高質(zhì)量課程……

順應近期大模型領域熱度的持續(xù)釋放,F(xiàn)SDL推出了Full Stack LLM Bootcamp《大語言模型應用開發(fā)全棧指南》課程,介紹了構建大語言模型產(chǎn)品的最佳實踐、工具及方法,內(nèi)容從提示工程到產(chǎn)品設計實現(xiàn)了全棧式覆蓋,還有當前LLM領域最前沿的技術分享。

Full Stack Deep Learning (FSDL)是一個學習社區(qū),由加州大學伯克利分校博士校友組織,熱衷和大家分享如何在現(xiàn)實世界中使用深度神經(jīng)網(wǎng)絡、機器學習產(chǎn)品構建的最佳實踐。自2018年以來,F(xiàn)SDL已在多個頂尖大學開設系列實戰(zhàn)訓練營和官方學期課程。

課程視頻

中英雙語字幕由矩池云翻譯制作,以便大家更好學習體驗。點擊頁面視頻前往觀看完整課程視頻。

課程主題

隨著LLM的興起,構建AI產(chǎn)品的方式已悄然改變——

在 LLM(大型語言模型)之前,要把一個想法變成產(chǎn)品,從零開始的模型訓練過程會遇到各種問題,擴展部署階段也會遇到瓶頸。

而現(xiàn)在,基于預訓練 LLM 和 API 的最小可行產(chǎn)品(MVP)可以讓你實現(xiàn)在一個小時內(nèi)完成配置并為用戶提供服務。

圍繞 LLM 已經(jīng)出現(xiàn)了一個集技術、工具和工具供應商的全新生態(tài)系統(tǒng)。即使是機器學習開發(fā)者也在快速適應、調(diào)整定位,嘗試從LLM生態(tài)中找到對自己最行之有效的技術和工具。

FSDL的該系列課程共11講,基本覆蓋了構建大語言模型產(chǎn)品的各個方面。前8講是LLM的實踐、工具及方法,后3講是來自LLM頭部企業(yè)的核心成員談各自經(jīng)驗及近期工作重心:

  1. 學會”魔法咒語“:提示工程和其他魔法

  2. LLM運維:生產(chǎn)階段的部署與學習

  3. 優(yōu)化語言用戶界面

  4. 增強語言模型

  5. 快速發(fā)布LLM應用

  6. 下一個發(fā)展方向

  7. LLM技術基礎

  8. askFSDL項目演示

  9. Reza Shabani介紹Replit訓練大語言模型的經(jīng)驗

  10. Peter Welinder談OpenAI ChatGPT及近期工作(Agent方向)

  11. Harrison Chase(LangChain)聊近期火熱的Agent

學習必備:Python編程經(jīng)驗;加分項:機器學習/前端/后端經(jīng)驗

課程主講

Charles Frye

加州大學伯克利分校理論神經(jīng)科學博士,研究神經(jīng)網(wǎng)絡近10年。相繼在Weights & Biases、?Gantry等公司研究開發(fā)AI/ML工具?。

Josh Tobin

加州大學伯克利分校人工智能博士,曾OpenAI任職研究科學家,Gantry聯(lián)合創(chuàng)始人兼CEO,為AI產(chǎn)品研發(fā)工具。

Sergey Karayev

加州大學伯克利分校人工智能博士,致力于開發(fā)人工智能產(chǎn)品,Gradescope、Volition聯(lián)合創(chuàng)始人。

相關學習資料:

快速發(fā)布LLM應用方面:

Robert Huben, “How does GPT-3 spend its 175B parameters?”?-?https://aizi.substack.com/p/how-does-gpt-3-spend-its-175b-parameters

Anthropic, “In-context Learning and Induction Heads”?深入探索了大語言模型 in-context learning 能力的來源 -?https://transformer-circuits.pub/2022/in-context-learning-and-induction-heads/index.html

最近的 RedPajama 項目中嘗試“復現(xiàn)”了LLaMA的訓練數(shù)據(jù)集 -?https://together.ai/blog/redpajama

Yao Fu, “How does GPT Obtain its Ability? Tracing Emergent Abilities of Language Models to their Sources”?為何要在訓練中包括代碼數(shù)據(jù), GPT 模型家族譜系圖, alignment tax 等內(nèi)容 - https://yaofu.notion.site/How-does-GPT-Obtain-its-Ability-Tracing-Emergent-Abilities-of-Language-Models-to-their-Sources-b9a57ac0fcf74f30a1ab9e3e36fa1dc1

Open Assistant數(shù)據(jù)集?https://huggingface.co/datasets/OpenAssistant/oasst1

Anthropic: Constitutional AI?https://www.anthropic.com/index/claudes-constitution

OPT優(yōu)化的血淚史?https://arxiv.org/pdf/2205.01068.pdf

模型inference優(yōu)化的手段?https://lilianweng.github.io/posts/2023-01-10-inference-optimization/

Prompt提示工程方面:

Dohan et al., “Language model cascades”?利用概率編程語言,重復prompt或調(diào)整單個或多個互相關聯(lián)的語言模型,來進行復雜的多步推理 -?https://arxiv.org/abs/2207.10342

Anthropic, “The Capacity for Moral Self-Correction in Large Language Models”?大型語言模型的“道德自我修正”能力 -?https://arxiv.org/abs/2302.07459?

Mishra et al., “Reframing Instructional Prompts to GPTk's Language”?GPTk語言教學提示重構 -?https://arxiv.org/pdf/2109.07830.pdf??

Ouyang et al., “Training language models to follow instructions with human feedback”?訓練語言模型以遵循帶有人類反饋的指令 -?https://arxiv.org/abs/2203.02155

Reynolds et al., “Prompt Programming for Large Language Models: Beyond the Few-Shot Paradigm”?-?https://arxiv.org/abs/2102.07350

Park et al., “Generative Agents: Interactive Simulacra of Human Behavior”?模仿人類可信行為的生成式智能體可以增強沉浸式環(huán)境和仿真環(huán)境中交互式應用,以實現(xiàn)人機交流及原型工具 -?https://arxiv.org/abs/2304.03442

Jacob Andreas, “Language Models as Agent Models”?尤其關注角色模擬和智能體的概念 -?https://arxiv.org/abs/2212.01681

B.Brown, “Language models are few-shot learners”?-?https://arxiv.org/abs/2005.14165

Min et al., “Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?” -?https://arxiv.org/abs/2202.12837

Wei et al., “Larger language models do in-context learning differently”?-?https://arxiv.org/abs/2303.03846

Khot et al., “Decomposed Prompting: A Modular Approach for Solving Complex Tasks”?拆解復雜任務 -?https://arxiv.org/abs/2210.02406

Press et al., “Measuring and Narrowing the Compositionality Gap in Language Models”?自動化拆解任務 -?https://arxiv.org/abs/2210.03350

Yao et al., “ReAct: Synergizing Reasoning and Acting in Language Models”?ReAct方法在大型語言模型中集成了推理能力和行動能力。這種集成通過提供推理和行動計劃之間的協(xié)同作用,使模型能夠更好地處理復雜的任務?-?https://arxiv.org/abs/2210.03629

Wei et al., “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models”?-?https://arxiv.org/abs/2201.11903

Kojima et al., “Large Language Models are Zero-Shot Reasoners”?引導模型通過一步一步的推理方式去解決復雜的多步推理?-?https://arxiv.org/abs/2205.11916

Kim et al., “Language Models can Solve Computer Tasks”?讓模型不斷自我審視修正答案 -?https://arxiv.org/abs/2303.17491

Wang et al., “Self-Consistency Improves Chain of Thought Reasoning in Language Models”?通過略微不同的 prompt 以及稍高一點的 temperature 設定,讓模型多生成幾個回答,最后投票來選擇最終的回答 -?https://arxiv.org/abs/2203.11171

Suzgun et al., “Challenging BIG-Bench Tasks and Whether Chain-of-Thought Can Solve Them”?- ?https://arxiv.org/abs/2210.09261

OpenAI Cookbook -?https://github.com/openai/openai-cookbook

LangChain AI Handbook -?https://www.pinecone.io/learn/series/langchain/

Learn Prompting -?https://learnprompting.org/docs/intro

Prompt Engineering Guide -?https://github.com/dair-ai/Prompt-Engineering-Guide

Lilian Weng’s Prompt Engineering -?https://lilianweng.github.io/posts/2023-03-15-prompt-engineering/

增強模型方面:

Embedding到底是什么?What is an embedding, anyways -?https://simplicityissota.substack.com/p/what-is-an-embedding-anyways

選擇embedding模型時,可參考mteb的leaderboard -?https://huggingface.co/spaces/mteb/leaderboard

George Pipis, “A High-Level Introduction To Word Embeddings”?-?https://predictivehacks.com/a-high-level-introduction-to-word-embeddings/

OpenAI embeddings——好快省。Reimers et al., “Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks”?-?https://arxiv.org/abs/1908.10084?

SOTA: Instructor. Su et al., “One embedder, Any Task: Instruction-Finetuned Text Embeddings”?-?https://arxiv.org/abs/2212.09741

Gao et al., “Precise Zero-Shot Dense Retrieval without Relevance Labels”?提出Hypothetical Document Embeddings (HyDE)方法 -?https://arxiv.org/abs/2212.10496?

Sumit Kumar, “Zero and Few Shot Text Retrieval and Ranking Using Large Language Models”?- ?https://blog.reachsumit.com/posts/2023/03/llm-for-text-ranking/

相似性搜索:Ethan Rosenthal, “Do you actually need a vector database?”?-?www.ethanrosenthal.com/2023/04/10/nn-vs-ann/

Pinecone, “Nearest Neighbor Indexes for Similarity Search”?-?www.pinecone.io/learn/vector-indexes/

Copilot Internals, GitHub Copilot 如何通過檢索來增強上下文 -?https://thakkarparth007.github.io/copilot-explorer/posts/copilot-internals



LLM課程推薦 | Full Stack LLM Bootcamp《大語言模型應用開發(fā)全棧指南》的評論 (共 條)

分享到微博請遵守國家法律
华阴市| 垦利县| 璧山县| 湘潭市| 柳州市| 呼图壁县| 高陵县| 隆化县| 上高县| 泸州市| 石河子市| 哈尔滨市| 利津县| 清镇市| 增城市| 同心县| 芷江| 赞皇县| 岢岚县| 邳州市| 利辛县| 富民县| 石家庄市| 天祝| 罗江县| 永川市| 望城县| 平江县| 武隆县| 乡城县| 汝阳县| 丹棱县| 镇沅| 曲水县| 丹寨县| 丹东市| 阿城市| 连江县| 铜山县| 山西省| 稻城县|