|
10 | 10 |
|
11 | 11 | <div align="center"><img src="./assets/course_introduction.jpg" alt="course-introduction"></div>
|
12 | 12 |
|
13 |
| -## 课程安排 |
14 |
| - |
15 |
| -> 因为课程周期较长,课节安排可能会在中途出现微调,以最终授课情况为准,感谢理解 |
16 |
| -
|
17 |
| -***【课前学习】 MindSpore Transformers大模型套件:架构讲解与使用入门*** |
18 |
| - |
19 |
| -介绍MindSpore Transformers大模型套件现状,讲解套件架构及高阶接口设计,走读工程架构模块代码,学习基本使用方式 |
20 |
| - |
21 |
| -[link](https://www.bilibili.com/video/BV1jh4y1m7xV/?spm_id_from=333.999.0.0) |
22 |
| - |
23 |
| - |
24 |
| -***第一讲:ChatGLM*** |
25 |
| - |
26 |
| -介绍技术公开课整体课程安排;ChatGLM模型结构,走读代码演示ChatGLM推理部署 |
27 |
| - |
28 |
| - |
29 |
| -***第二讲:多模态遥感智能解译基础模型*** |
30 |
| - |
31 |
| -介绍多模态遥感智能解译基础模型的原理、训推等相关技术,以及模型相关行业应用 |
32 |
| - |
33 |
| -***第三讲:ChatGLM2*** |
34 |
| - |
35 |
| -介绍ChatGLM2模型结构,走读代码演示ChatGLM推理部署 |
36 |
| - |
37 |
| -***第四讲:文本生成解码原理*** |
38 |
| - |
39 |
| -介绍Beam search和采样的原理及代码实现 |
| 13 | +### 课前学习 |
40 | 14 |
|
41 |
| -***第五讲:LLAMA*** |
| 15 | +- python |
| 16 | +- 人工智能基础、深度学习基础(重点学习自然语言处理):[MindSpore-d2l](https://openi.pcl.ac.cn/mindspore-courses/d2l-mindspore) |
| 17 | +- MindSpore基础使用:[MindSpore教程](https://www.mindspore.cn/tutorials/zh-CN/r2.2/index.html) |
| 18 | +- MindFormers基础使用:[MindFormers讲解视频](https://www.bilibili.com/video/BV1jh4y1m7xV/?spm_id_from=333.999.0.0) |
| 19 | +- 昇思MindSpore技术公开课大模型专题第一期课程:[step_into_chatgpt](../Season1.step_into_chatgpt/) |
42 | 20 |
|
43 |
| -介绍LLAMA模型结构,走读代码演示推理部署,介绍Alpaca |
44 |
| - |
45 |
| -***第六讲:LLAMA2*** |
46 |
| - |
47 |
| -介绍LLAMA2模型结构,走读代码演示LLAMA2 chat部署 |
48 |
| - |
49 |
| -***第七讲:云从大模型*** |
50 |
| - |
51 |
| -***第八讲:MOE*** |
52 |
| - |
53 |
| -***第九讲:CPM*** |
54 |
| - |
55 |
| -介绍CPM-Bee预训练、推理、微调及代码现场演示 |
56 |
| - |
57 |
| -***第十讲:高效参数微调*** |
58 |
| - |
59 |
| -介绍Lora、(P-Tuning)原理及代码实现 |
60 |
| - |
61 |
| -***第十一讲:参数微调平台*** |
62 |
| - |
63 |
| -***第十二讲:Prompt Engineering*** |
64 |
| - |
65 |
| -***第十三讲:量化*** |
66 |
| - |
67 |
| -介绍低比特量化等相关模型量化技术 |
68 |
| - |
69 |
| -***第十四讲:框架LangChain模块解析*** |
| 21 | +## 课程安排 |
70 | 22 |
|
71 |
| -解析Models、Prompts、Memory、Chains、Agents、Indexes、Callbacks模块,及案例分析 |
| 23 | +> 因为课程周期较长,课节安排可能会在中途出现微调,以最终授课情况为准,感谢理解 |
72 | 24 |
|
73 |
| -***第十五讲:LangChain对话机器人综合案例*** |
74 | 25 |
|
75 |
| -MindSpore Transformers本地模型与LangChain框架组合使用,通过LangChain框架管理向量库并基于向量库对MindSpore Transformers本地模型问答进行优化 |
| 26 | +| 章节序号 | 章节名称 | 课程简介 | 视频 | 课件及代码 | 知识点总结 | |
| 27 | +|:----:|:----:|:--------------------------------------------|:----:|:----:|:----:| |
| 28 | +| 第十一讲 | ChatGLM | GLM模型结构,从GLM到ChatGLM的演变,ChatGLM推理部署代码演示 | [link](https://www.bilibili.com/video/BV1ju411T74Y/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season2.step_into_llm/01.ChatGLM/) | 更新中 | |
| 29 | +| 第十二讲 | 多模态遥感智能解译基础模型 | 大模型时代的遥感智能,遥感基础模型技术路线,遥感领域典型场景应用 | [link](https://www.bilibili.com/video/BV1Be41197wY/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | / | / | |
| 30 | +| 第十三讲 | ChatGLM2 | ChatGLM2技术解析,ChatGLM2推理部署代码演示,ChatGLM3特性介绍 | [link](https://www.bilibili.com/video/BV1Ew411W72E/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season2.step_into_llm/02.ChatGLM2/) | 更新中 | |
| 31 | +| 第十四讲 | 文本生成解码原理 | 以MindNLP为例,讲解搜索与采样技术原理和实现 | [link](https://www.bilibili.com/video/BV1QN4y117ZK/?spm_id_from=333.999.0.0&vd_source=eb3a45e6eb4dccc5795f97586b78f429) | [link](./Season2.step_into_llm/03.Decoding/) | 更新中 | |
| 32 | +| 第十五讲 | LLAMA | LLaMA背景及羊驼大家族介绍,LLaMA模型结构解析,LLaMA推理部署代码演示 | [link](https://www.bilibili.com/video/BV1nN41157a9/?spm_id_from=333.999.0.0) | [link](./Season2.step_into_llm/04.LLaMA/) | 更新中 | |
| 33 | +| 第十六讲 | LLAMA2 | 介绍LLAMA2模型结构,走读代码演示LLAMA2 chat部署 | | | |
| 34 | +| 第十七讲 | 云从大模型 | / | | | |
| 35 | +| 第十八讲 | MOE | / | | | |
| 36 | +| 第十九讲 | CPM | 介绍CPM-Bee预训练、推理、微调及代码现场演示 | | | |
| 37 | +| 第二十讲 | 高效参数微调 | 介绍Lora、(P-Tuning)原理及代码实现 | | | |
| 38 | +| 第二十一讲 | 参数微调平台 | / | | | |
| 39 | +| 第二十二讲 | Prompt Engineering | / | | | |
| 40 | +| 第二十三讲 | 量化 | 介绍低比特量化等相关模型量化技术 | | | |
| 41 | +| 第二十四讲 | 框架LangChain模块解析 | 解析Models、Prompts、Memory、Chains、Agents、Indexes、Callbacks模块,及案例分析 | | | |
| 42 | +| 第二十五讲 | LangChain对话机器人综合案例 | MindSpore Transformers本地模型与LangChain框架组合使用,通过LangChain框架管理向量库并基于向量库对MindSpore Transformers本地模型问答进行优化 | | | |
| 43 | + |
| 44 | +注:章节序号接昇思MindSpore技术公开课第一期 |
0 commit comments