Skip to content

Commit b702cc8

Browse files
authored
update readme (#48)
* upload slides * upload code and slides * update readme * update readme * update readme * update readme
1 parent 9e59009 commit b702cc8

File tree

8 files changed

+90
-106
lines changed

8 files changed

+90
-106
lines changed

README.md

+51-35
Large diffs are not rendered by default.

Season1.step_into_chatgpt/README.md

+12-13
Original file line numberDiff line numberDiff line change
@@ -61,19 +61,18 @@
6161

6262
> 最新通知: 考虑到4月29日为五一假期,小伙伴们可能会有自己的安排,同时也为了给大家提供更加优质的课程内容。经过综合考量,我们决定将4月29日的GPT课程后移一周,调整至5月6日开课,其余课程时间安排保持不变。特此通知,感谢大家的理解(鞠躬)。
6363
64-
| 日期 | 课程 | 课件归档 |
65-
|----------|----------|----------|
66-
| 4/15 | **Transformer**<br> * Multi-Head Attention<br> * Transformer结构<br>&nbsp;&nbsp;&nbsp;&nbsp; * 输入编码 <br> &nbsp;&nbsp;&nbsp;&nbsp; * Encoder <br> &nbsp;&nbsp;&nbsp;&nbsp; * Decoder <br> | [Transformer](./1.Transformer/) |
67-
| 4/22 | **BERT**<br> * BERT预训练<br> * BERT Finetune<br> * 使用MindSpore写一个数据并行的BERT<br> | [BERT](./2.BERT/) |
68-
| 4/29 | 劳动节休息,劳逸结合才能更好的学习哦~ | |
69-
| 5/6 | **GPT**<br> * Unsupervised Language Modelling<br> * Supervised Fine-Tuning<br> * 使用GPT Finetune一个Task<br> | [GPT](./3.GPT/) |
70-
| 5/13 | **GPT2**<br> * Task Conditioning<br> * Zero Shot Learning and Zero Shot Task Transfer<br> * 使用GPT2训练一个few shot任务<br> | [GPT-2](./4.GPT2/) |
71-
| 5/20 | **MindSpore自动并行** | [Parallel](./5.Parallel/) |
72-
| 5/27 | **代码预训练**<br> * CodeBERT<br> * CodeX、Copilot<br> * CodeGeeX<br> * 使用CodeGeeX生成代码<br> | [CodeGeeX](./6.CodeGeeX/) |
73-
| 6/3 | **Prompt Tuning**<br> * 人工定义Prompt<br> * P-tuning<br> * 使用BERT/GPT2实现Prompt Tuning<br> | [Prompt](./7.Prompt/) |
74-
| 6/10 | **多模态预训练大模型**<br> * 紫东.太初多模态大模型2.0功能及应用介绍<br> * 语音识别的基础概述<br> * 语音识别的基础框架<br> * 语音识别现状及挑战<br> | [课程回放](https://www.bilibili.com/video/BV1wg4y1K72r/?spm_id_from=333.999.0.0) |
75-
| 6/17 | **Instruct Tuning**<br> * Let's think step by step<br> * InstructGPT<br> * Chain-of-thoughts<br> | [Insutruction](./8.Instruction/) |
76-
| 6/24 | **RLHF**<br> * 强化学习与PPO算法<br> * InstructGPT/ChatGPT中的RLHF<br> * 动手训练一个Reward模型<br> * 使用GPT2实现ChatGPT全流程(基于人工反馈的评论生成模型)<br>| [RLHF](./9.RLHF/) |
64+
| 章节序号 | 章节名称 | 课程简介 | 视频 | 课件及代码 | 知识点总结 |
65+
|:----:|:----:|:--------------------------------------------|:----:|:----:|:----:|
66+
| 第一讲 | Transformer | Multi-head self-attention原理。Masked self-attention的掩码处理方式。基于Transformer的机器翻译任务训练。 | [link](https://www.bilibili.com/video/BV16h4y1W7us/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f4290) | [link](./Season1.step_into_chatgpt/1.Transformer/) | [link](./Season1.step_into_chatgpt/0.Course-Review/1-Transformer.md) |
67+
| 第二讲 | BERT | 基于Transformer Encoder的BERT模型设计:MLM和NSP任务。BERT进行下游任务微调的范式。 | [link](https://www.bilibili.com/video/BV1xs4y1M72q/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season1.step_into_chatgpt/2.BERT/) | [link](./Season1.step_into_chatgpt/0.Course-Review/2-BERT.md) |
68+
| 第三讲 | GPT | 基于Transformer Decoder的GPT模型设计:Next token prediction。GPT下游任务微调范式。 | [link](https://www.bilibili.com/video/BV1Gh411w7HC/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season1.step_into_chatgpt/3.GPT/) | [link](./Season1.step_into_chatgpt/0.Course-Review/3-GPT.md) |
69+
| 第四讲 | GPT2 | GPT2的核心创新点,包括Task Conditioning和Zero shot learning;模型实现细节基于GPT1的改动。 | [link](https://www.bilibili.com/video/BV1Ja4y1u7xx/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season1.step_into_chatgpt/4.GPT2/) | [link](./Season1.step_into_chatgpt/0.Course-Review/4-GPT2.md) |
70+
| 第五讲 | MindSpore自动并行 | 以MindSpore分布式并行特性为依托的数据并行、模型并行、Pipeline并行、内存优化等技术。 | [link](https://www.bilibili.com/video/BV1VN41117AG/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season1.step_into_chatgpt/5.Parallel/) | [link](./Season1.step_into_chatgpt/0.Course-Review/5-Parallel.md) |
71+
| 第六讲 | 代码预训练 | 代码预训练发展沿革。Code数据的预处理。CodeGeex代码预训练大模型。 | [link](https://www.bilibili.com/video/BV1Em4y147a1/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season1.step_into_chatgpt/6.CodeGeeX/) | [link](./Season1.step_into_chatgpt/0.Course-Review/6-CodeGeex.md) |
72+
| 第七讲 | Prompt Tuning | Pretrain-finetune范式到Prompt tuning范式的改变。Hard prompt和Soft prompt相关技术。只需要改造描述文本的prompting。 | [link](https://www.bilibili.com/video/BV1Wg4y1K77R/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season1.step_into_chatgpt/7.Prompt/) | [link](./Season1.step_into_chatgpt/0.Course-Review/7-Prompt.md) |
73+
| 第八讲 | 多模态预训练大模型 | 紫东太初多模态大模型的设计、数据处理和优势;语音识别的理论概述、系统框架和现状及挑战。 | [link](https://www.bilibili.com/video/BV1wg4y1K72r/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | / | / |
74+
| 第九讲 | Instruct Tuning | Instruction tuning的核心思想:让模型能够理解任务描述(指令)。Instruction tuning的局限性:无法支持开放域创新性任务、无法对齐LM训练目标和人类需求。Chain-of-thoughts:通过在prompt中提供示例,让模型“举一反三”。 | [link](https://www.bilibili.com/video/BV1cm4y1e7Cc/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season1.step_into_chatgpt/8.Instruction/) | [link](./Season1.step_into_chatgpt/0.Course-Review/8-Instruction.md) |
75+
| 第十讲 | RLHF | RLHF核心思想:将LLM和人类行为对齐。RLHF技术分解:LLM微调、基于人类反馈训练奖励模型、通过强化学习PPO算法实现模型微调。 | [link](https://www.bilibili.com/video/BV15a4y1c7dv/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season1.step_into_chatgpt/9.RLHF/) | 更新中 |
7776

7877
## 课后活动
7978

Season2.step_into_llm/README.md

+27-58
Original file line numberDiff line numberDiff line change
@@ -10,66 +10,35 @@
1010

1111
<div align="center"><img src="./assets/course_introduction.jpg" alt="course-introduction"></div>
1212

13-
## 课程安排
14-
15-
> 因为课程周期较长,课节安排可能会在中途出现微调,以最终授课情况为准,感谢理解
16-
17-
***【课前学习】 MindSpore Transformers大模型套件:架构讲解与使用入门***
18-
19-
介绍MindSpore Transformers大模型套件现状,讲解套件架构及高阶接口设计,走读工程架构模块代码,学习基本使用方式
20-
21-
[link](https://www.bilibili.com/video/BV1jh4y1m7xV/?spm_id_from=333.999.0.0)
22-
23-
24-
***第一讲:ChatGLM***
25-
26-
介绍技术公开课整体课程安排;ChatGLM模型结构,走读代码演示ChatGLM推理部署
27-
28-
29-
***第二讲:多模态遥感智能解译基础模型***
30-
31-
介绍多模态遥感智能解译基础模型的原理、训推等相关技术,以及模型相关行业应用
32-
33-
***第三讲:ChatGLM2***
34-
35-
介绍ChatGLM2模型结构,走读代码演示ChatGLM推理部署
36-
37-
***第四讲:文本生成解码原理***
38-
39-
介绍Beam search和采样的原理及代码实现
13+
### 课前学习
4014

41-
***第五讲:LLAMA***
15+
- python
16+
- 人工智能基础、深度学习基础(重点学习自然语言处理):[MindSpore-d2l](https://openi.pcl.ac.cn/mindspore-courses/d2l-mindspore)
17+
- MindSpore基础使用:[MindSpore教程](https://www.mindspore.cn/tutorials/zh-CN/r2.2/index.html)
18+
- MindFormers基础使用:[MindFormers讲解视频](https://www.bilibili.com/video/BV1jh4y1m7xV/?spm_id_from=333.999.0.0)
19+
- 昇思MindSpore技术公开课大模型专题第一期课程:[step_into_chatgpt](../Season1.step_into_chatgpt/)
4220

43-
介绍LLAMA模型结构,走读代码演示推理部署,介绍Alpaca
44-
45-
***第六讲:LLAMA2***
46-
47-
介绍LLAMA2模型结构,走读代码演示LLAMA2 chat部署
48-
49-
***第七讲:云从大模型***
50-
51-
***第八讲:MOE***
52-
53-
***第九讲:CPM***
54-
55-
介绍CPM-Bee预训练、推理、微调及代码现场演示
56-
57-
***第十讲:高效参数微调***
58-
59-
介绍Lora、(P-Tuning)原理及代码实现
60-
61-
***第十一讲:参数微调平台***
62-
63-
***第十二讲:Prompt Engineering***
64-
65-
***第十三讲:量化***
66-
67-
介绍低比特量化等相关模型量化技术
68-
69-
***第十四讲:框架LangChain模块解析***
21+
## 课程安排
7022

71-
解析Models、Prompts、Memory、Chains、Agents、Indexes、Callbacks模块,及案例分析
23+
> 因为课程周期较长,课节安排可能会在中途出现微调,以最终授课情况为准,感谢理解
7224
73-
***第十五讲:LangChain对话机器人综合案例***
7425

75-
MindSpore Transformers本地模型与LangChain框架组合使用,通过LangChain框架管理向量库并基于向量库对MindSpore Transformers本地模型问答进行优化
26+
| 章节序号 | 章节名称 | 课程简介 | 视频 | 课件及代码 | 知识点总结 |
27+
|:----:|:----:|:--------------------------------------------|:----:|:----:|:----:|
28+
| 第十一讲 | ChatGLM | GLM模型结构,从GLM到ChatGLM的演变,ChatGLM推理部署代码演示 | [link](https://www.bilibili.com/video/BV1ju411T74Y/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season2.step_into_llm/01.ChatGLM/) | 更新中 |
29+
| 第十二讲 | 多模态遥感智能解译基础模型 | 大模型时代的遥感智能,遥感基础模型技术路线,遥感领域典型场景应用 | [link](https://www.bilibili.com/video/BV1Be41197wY/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | / | / |
30+
| 第十三讲 | ChatGLM2 | ChatGLM2技术解析,ChatGLM2推理部署代码演示,ChatGLM3特性介绍 | [link](https://www.bilibili.com/video/BV1Ew411W72E/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season2.step_into_llm/02.ChatGLM2/) | 更新中 |
31+
| 第十四讲 | 文本生成解码原理 | 以MindNLP为例,讲解搜索与采样技术原理和实现 | [link](https://www.bilibili.com/video/BV1QN4y117ZK/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season2.step_into_llm/03.Decoding/) | 更新中 |
32+
| 第十五讲 | LLAMA | LLaMA背景及羊驼大家族介绍,LLaMA模型结构解析,LLaMA推理部署代码演示 | [link](https://www.bilibili.com/video/BV1nN41157a9/?spm_id_from=333.999.0.0) | [link](./Season2.step_into_llm/04.LLaMA/) | 更新中 |
33+
| 第十六讲 | LLAMA2 | 介绍LLAMA2模型结构,走读代码演示LLAMA2 chat部署 | | |
34+
| 第十七讲 | 云从大模型 | / | | |
35+
| 第十八讲 | MOE | / | | |
36+
| 第十九讲 | CPM | 介绍CPM-Bee预训练、推理、微调及代码现场演示 | | |
37+
| 第二十讲 | 高效参数微调 | 介绍Lora、(P-Tuning)原理及代码实现 | | |
38+
| 第二十一讲 | 参数微调平台 | / | | |
39+
| 第二十二讲 | Prompt Engineering | / | | |
40+
| 第二十三讲 | 量化 | 介绍低比特量化等相关模型量化技术 | | |
41+
| 第二十四讲 | 框架LangChain模块解析 | 解析Models、Prompts、Memory、Chains、Agents、Indexes、Callbacks模块,及案例分析 | | |
42+
| 第二十五讲 | LangChain对话机器人综合案例 | MindSpore Transformers本地模型与LangChain框架组合使用,通过LangChain框架管理向量库并基于向量库对MindSpore Transformers本地模型问答进行优化 | | |
43+
44+
注:章节序号接昇思MindSpore技术公开课第一期

assets/groupchat_qq.png

102 KB
Loading

assets/resources.png

86.2 KB
Loading

assets/sign_up.png

84.3 KB
Loading

assets/teachers.jpg

355 KB
Loading

assets/wechat_official_account.png

81.5 KB
Loading

0 commit comments

Comments
 (0)