|
13 | 13 |
|
14 | 14 | (注:参与免费课程必须报名哦!同步添加QQ群,后续课程事宜将在群内通知!)
|
15 | 15 |
|
16 |
| -## 大模型专题第二期(进行中) |
| 16 | +## 大模型专题第一期&第二期(进行中) |
17 | 17 |
|
18 | 18 | 紧跟前沿技术,解构热点大模型(如ChatGLM2、LLAMA2等);手把手教你大模型从开发到应用全流程
|
19 | 19 |
|
20 | 20 | 课程资料归档:[link](./Season2.step_into_llm/)
|
21 | 21 |
|
22 | 22 | ### 教研团队
|
23 | 23 |
|
24 |
| -- 孙显 |
25 | 24 |
|
26 |
| - 中国科学院空天信息创新研究院研究员 实验室副主任 |
| 25 | + |
27 | 26 |
|
28 |
| -- 龚柏涛(面壁智能) |
| 27 | +### 课前学习 |
29 | 28 |
|
30 |
| - OpenBMB开源社区技术负责人 清华大学硕士 CPM-Bee开源大模型项目主要维护者 |
| 29 | +- python |
| 30 | +- 人工智能基础、深度学习基础(重点学习自然语言处理):[MindSpore-d2l](https://openi.pcl.ac.cn/mindspore-courses/d2l-mindspore) |
| 31 | +- MindSpore基础使用:[MindSpore教程](https://www.mindspore.cn/tutorials/zh-CN/r2.2/index.html) |
| 32 | +- MindFormers基础使用:[MindFormers](https://www.bilibili.com/video/BV1jh4y1m7xV/?spm_id_from=333.999.0.0) |
31 | 33 |
|
32 |
| -- 杨琨(达闼科技) |
33 | 34 |
|
34 |
| - 解决方案工程师 |
35 |
| - |
36 |
| -- 李宁(达闼科技) |
37 |
| - |
38 |
| - 解决方案经理 |
39 |
| - |
40 |
| -- 周汝霖 |
41 |
| - |
42 |
| - 昇思MindSpore布道师 深圳大学华为智能基座社长 2022年华为昇思十大优秀开发者 |
43 |
| - |
44 |
| -- CQU弟中弟 |
45 |
| - |
46 |
| - 昇思MindSpore易用性专家 昇思MindSpore布道师 |
47 |
| - |
48 |
| -- Eric |
49 |
| - |
50 |
| - 昇思MindSpore模型压缩技术专家 昇思MindSpore布道师 |
51 |
| - |
52 |
| -- Selina |
53 |
| - |
54 |
| - 昇思MindSpore布道师 |
55 |
| - |
56 |
| -### 课程介绍 |
57 |
| - |
58 |
| -***【课前学习】 MindSpore Transformers大模型套件:架构讲解与使用入门*** |
59 |
| - |
60 |
| -介绍MindSpore Transformers大模型套件现状,讲解套件架构及高阶接口设计,走读工程架构模块代码,学习基本使用方式 |
61 |
| - |
62 |
| -[link](https://www.bilibili.com/video/BV1jh4y1m7xV/?spm_id_from=333.999.0.0) |
63 |
| - |
64 |
| - |
65 |
| -***第一讲:ChatGLM*** |
66 |
| - |
67 |
| -介绍技术公开课整体课程安排;ChatGLM模型结构,走读代码演示ChatGLM推理部署 |
68 |
| - |
69 |
| - |
70 |
| -***第二讲:多模态遥感智能解译基础模型*** |
71 |
| - |
72 |
| -介绍多模态遥感智能解译基础模型的原理、训推等相关技术,以及模型相关行业应用 |
73 |
| - |
74 |
| -***第三讲:ChatGLM2*** |
75 |
| - |
76 |
| -介绍ChatGLM2模型结构,走读代码演示ChatGLM推理部署 |
77 |
| - |
78 |
| -***第四讲:文本生成解码原理*** |
79 |
| - |
80 |
| -介绍Beam search和采样的原理及代码实现 |
81 |
| - |
82 |
| -***第五讲:LLAMA*** |
83 |
| - |
84 |
| -介绍LLAMA模型结构,走读代码演示推理部署,介绍Alpaca |
85 |
| - |
86 |
| -***第六讲:LLAMA2*** |
87 |
| - |
88 |
| -介绍LLAMA2模型结构,走读代码演示LLAMA2 chat部署 |
89 |
| - |
90 |
| -***第七讲:云从大模型*** |
91 |
| - |
92 |
| -***第八讲:MOE*** |
93 |
| - |
94 |
| -***第九讲:CPM*** |
95 |
| - |
96 |
| -介绍CPM-Bee预训练、推理、微调及代码现场演示 |
97 |
| - |
98 |
| -***第十讲:高效参数微调*** |
99 |
| - |
100 |
| -介绍Lora、(P-Tuning)原理及代码实现 |
101 |
| - |
102 |
| -***第十一讲:参数微调平台*** |
103 |
| - |
104 |
| -***第十二讲:Prompt Engineering*** |
105 |
| - |
106 |
| -***第十三讲:量化*** |
107 |
| - |
108 |
| -介绍低比特量化等相关模型量化技术 |
109 |
| - |
110 |
| -***第十四讲:框架LangChain模块解析*** |
111 |
| - |
112 |
| -解析Models、Prompts、Memory、Chains、Agents、Indexes、Callbacks模块,及案例分析 |
113 |
| - |
114 |
| -***第十五讲:LangChain对话机器人综合案例*** |
115 |
| - |
116 |
| -MindSpore Transformers本地模型与LangChain框架组合使用,通过LangChain框架管理向量库并基于向量库对MindSpore Transformers本地模型问答进行优化 |
117 |
| - |
118 |
| -## 大模型专题第一期(已结课) |
119 |
| - |
120 |
| -手把手教你搭建一个简易版ChatGPT |
121 |
| - |
122 |
| -课程资料归档:[link](./Season1.step_into_chatgpt/) |
123 |
| - |
124 |
| -### 教研团队 |
125 |
| - |
126 |
| -- 刘群 |
127 |
| - |
128 |
| - 华为语音语义首席科学家 |
129 |
| - |
130 |
| -- 苏腾 |
131 |
| - |
132 |
| - 昇思MindSpore技术专家 昇思MindSpore超大规模AI架构师 |
133 |
| - |
134 |
| -- 夏箫 |
135 |
| - |
136 |
| - 清华大学知识工程实验室博士生 代码生成模型CodeGeeX主要作者之一 |
137 |
| - |
138 |
| -- 王金桥 |
139 |
| - |
140 |
| - 中国科学院自动化研究所紫东太初大模型研究中心常务副主任 武汉人工智能研究院院长 |
141 |
| - |
142 |
| -- 唐帅 |
143 |
| - |
144 |
| - 武汉人工智能研究院语音算法工程师 |
145 |
| - |
146 |
| -- CQU弟中弟 |
147 |
| - |
148 |
| - 昇思MindSpore易用性专家 昇思MindSpore布道师 |
149 |
| - |
150 |
| -- Selina |
151 |
| - |
152 |
| - 昇思MindSpore布道师 |
153 | 35 |
|
154 | 36 | ### 课程介绍
|
155 | 37 |
|
156 |
| -***第一讲:Transformer*** |
157 |
| - |
158 |
| -Multi-head self-attention原理。Masked self-attention的掩码处理方式。基于Transformer的机器翻译任务训练。 |
159 |
| - |
160 |
| -***第二讲:BERT*** |
161 |
| - |
162 |
| -基于Transformer Encoder的BERT模型设计:MLM和NSP任务。BERT进行下游任务微调的范式。 |
163 |
| - |
164 |
| -***第三讲:GPT*** |
165 |
| - |
166 |
| -基于Transformer Decoder的GPT模型设计:Next token prediction。GPT下游任务微调范式。 |
167 |
| - |
168 |
| -***第四讲:GPT2*** |
169 |
| - |
170 |
| -GPT2的核心创新点,包括Task Conditioning和Zero shot learning;模型实现细节基于GPT1的改动。 |
171 |
| - |
172 |
| -***第五讲:MindSpore自动并行*** |
173 |
| - |
174 |
| -以MindSpore分布式并行特性为依托的数据并行、模型并行、Pipeline并行、内存优化等技术。 |
175 |
| - |
176 |
| -***第六讲:代码预训练*** |
177 |
| - |
178 |
| -代码预训练发展沿革。Code数据的预处理。CodeGeex代码预训练大模型。 |
179 |
| - |
180 |
| -***第七讲:Prompt Tuning*** |
181 |
| - |
182 |
| -Pretrain-finetune范式到Prompt tuning范式的改变。Hard prompt和Soft prompt相关技术。只需要改造描述文本的prompting。 |
183 |
| - |
184 |
| -***第八讲:多模态预训练大模型*** |
185 |
| - |
186 |
| -紫东太初多模态大模型的设计、数据处理和优势;语音识别的理论概述、系统框架和现状及挑战。 |
187 |
| - |
188 |
| -***第九讲:Instruction Tuning*** |
189 |
| - |
190 |
| -Instruction tuning的核心思想:让模型能够理解任务描述(指令)。Instruction tuning的局限性:无法支持开放域创新性任务、无法对齐LM训练目标和人类需求。Chain-of-thoughts:通过在prompt中提供示例,让模型“举一反三”。 |
191 |
| - |
192 |
| -***第十讲:RLHF*** |
193 |
| - |
194 |
| -RLHF核心思想:将LLM和人类行为对齐。RLHF技术分解:LLM微调、基于人类反馈训练奖励模型、通过强化学习PPO算法实现模型微调。 |
195 |
| - |
| 38 | +昇思MindSpore技术公开课火热开展中,面向所有对大模型感兴趣的开发者,带领大家理论结合时间,由浅入深地逐步深入大模型技术 |
| 39 | + |
| 40 | +在已经完结的第一期课程(第1讲-第10讲)中,我们从Transformer开始,解析到ChatGPT的演进路线,手把手带领大家搭建一个简易版的“ChatGPT” |
| 41 | + |
| 42 | +正在进行的第二期课程(第11讲-)在第一期的基础上做了全方位的升级,围绕大模型从开发到应用的全流程实践展开,讲解更前沿的大模型知识、丰富更多元的讲师阵容,期待你的加入! |
| 43 | + |
| 44 | +| 章节序号 | 章节名称 | 课程简介 | 视频链接 | 课件及代码链接 | |
| 45 | +|:----:|:----:|:--------------------------------------------|:----:|:----:| |
| 46 | +| 第一讲 | Transformer | Multi-head self-attention原理。Masked self-attention的掩码处理方式。基于Transformer的机器翻译任务训练。 | [link](https://www.bilibili.com/video/BV16h4y1W7us/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f4290) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season1.step_into_chatgpt/1.Transformer) | |
| 47 | +| 第二讲 | BERT | 基于Transformer Encoder的BERT模型设计:MLM和NSP任务。BERT进行下游任务微调的范式。 | [link](https://www.bilibili.com/video/BV1xs4y1M72q/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season1.step_into_chatgpt/2.BERT) | |
| 48 | +| 第三讲 | GPT | 基于Transformer Decoder的GPT模型设计:Next token prediction。GPT下游任务微调范式。 | [link](https://www.bilibili.com/video/BV1Gh411w7HC/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season1.step_into_chatgpt/3.GPT) | |
| 49 | +| 第四讲 | GPT2 | GPT2的核心创新点,包括Task Conditioning和Zero shot learning;模型实现细节基于GPT1的改动。 | [link](https://www.bilibili.com/video/BV1Ja4y1u7xx/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season1.step_into_chatgpt/4.GPT2) | |
| 50 | +| 第五讲 | MindSpore自动并行 | 以MindSpore分布式并行特性为依托的数据并行、模型并行、Pipeline并行、内存优化等技术。 | [link](https://www.bilibili.com/video/BV1VN41117AG/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season1.step_into_chatgpt/5.Parallel) | |
| 51 | +| 第六讲 | 代码预训练 | 代码预训练发展沿革。Code数据的预处理。CodeGeex代码预训练大模型。 | [link](https://www.bilibili.com/video/BV1Em4y147a1/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season1.step_into_chatgpt/6.CodeGeeX) | |
| 52 | +| 第七讲 | Prompt Tuning | Pretrain-finetune范式到Prompt tuning范式的改变。Hard prompt和Soft prompt相关技术。只需要改造描述文本的prompting。 | [link](https://www.bilibili.com/video/BV1Wg4y1K77R/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season1.step_into_chatgpt/7.Prompt) | |
| 53 | +| 第八讲 | 多模态预训练大模型 | 紫东太初多模态大模型的设计、数据处理和优势;语音识别的理论概述、系统框架和现状及挑战。 | [link](https://www.bilibili.com/video/BV1wg4y1K72r/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | / | |
| 54 | +| 第九讲 | Instruct Tuning | Instruction tuning的核心思想:让模型能够理解任务描述(指令)。Instruction tuning的局限性:无法支持开放域创新性任务、无法对齐LM训练目标和人类需求。Chain-of-thoughts:通过在prompt中提供示例,让模型“举一反三”。 | [link](https://www.bilibili.com/video/BV1cm4y1e7Cc/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season1.step_into_chatgpt/8.Instruction) | |
| 55 | +| 第十讲 | RLHF | RLHF核心思想:将LLM和人类行为对齐。RLHF技术分解:LLM微调、基于人类反馈训练奖励模型、通过强化学习PPO算法实现模型微调。 | [link](https://www.bilibili.com/video/BV15a4y1c7dv/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season1.step_into_chatgpt/9.RLHF) | |
| 56 | +| 第十一讲 | ChatGLM | 介绍技术公开课整体课程安排;ChatGLM模型结构,走读代码演示ChatGLM推理部署 | [link](https://www.bilibili.com/video/BV1ju411T74Y/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season2.step_into_llm/01.ChatGLM) | |
| 57 | +| 第十二讲 | 多模态遥感智能解译基础模型 | 介绍多模态遥感智能解译基础模型的原理、训推等相关技术,以及模型相关行业应用 | [link](https://www.bilibili.com/video/BV1Be41197wY/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) |/| |
| 58 | +| 第十三讲 | ChatGLM2 | 介绍ChatGLM2模型结构,走读代码演示ChatGLM推理部署 | [link](https://www.bilibili.com/video/BV1Ew411W72E/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season2.step_into_llm/02.ChatGLM2) | |
| 59 | +| 第十四讲 | 文本生成解码原理 | 介绍Beam search和采样的原理及代码实现 | [link](https://www.bilibili.com/video/BV1QN4y117ZK/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season2.step_into_llm/03.Decoding) | |
| 60 | +| 第十五讲 | LLAMA | 介绍LLAMA模型结构,走读代码演示推理部署,介绍Alpaca | [link](https://www.bilibili.com/video/BV1nN41157a9/?spm_id_from=333.999.0.0) | [link](https://github.com/mindspore-courses/step_into_llm/tree/master/Season2.step_into_llm/04.LLaMA) | |
| 61 | +| 第十六讲 | LLAMA2 | 介绍LLAMA2模型结构,走读代码演示LLAMA2 chat部署 | |
| 62 | +| 第十七讲 | 云从大模型 | / | |
| 63 | +| 第十八讲 | MOE | / | |
| 64 | +| 第十九讲 | CPM | 介绍CPM-Bee预训练、推理、微调及代码现场演示 | | |
| 65 | +| 第二十讲 | 高效参数微调 | 介绍Lora、(P-Tuning)原理及代码实现 | |
| 66 | +| 第二十一讲 | 参数微调平台 | / | |
| 67 | +| 第二十二讲 | Prompt Engineering | / | |
| 68 | +| 第二十三讲 | 量化 | 介绍低比特量化等相关模型量化技术 | |
| 69 | +| 第二十四讲 | 框架LangChain模块解析 | 解析Models、Prompts、Memory、Chains、Agents、Indexes、Callbacks模块,及案例分析 | |
| 70 | +| 第二十五讲 | LangChain对话机器人综合案例 | MindSpore Transformers本地模型与LangChain框架组合使用,通过LangChain框架管理向量库并基于向量库对MindSpore Transformers本地模型问答进行优化 | |
| 71 | + |
| 72 | + |
| 73 | +### 昇思资源一览:生态与伙伴共建、共享、共荣 |
| 74 | + |
| 75 | + |
0 commit comments