Skip to content

Commit 7d81438

Browse files
committed
update readme
1 parent f1d27c3 commit 7d81438

File tree

3 files changed

+36
-15
lines changed

3 files changed

+36
-15
lines changed

README.md

+10-5
Original file line numberDiff line numberDiff line change
@@ -66,7 +66,9 @@
6666

6767
</div>
6868

69-
欢迎大家为本项目做出贡献~
69+
🎉欢迎大家为本项目做出贡献!
70+
71+
🔍对LLM原理/底层实现感兴趣的小伙伴可以关注[ThinkLLM](https://github.com/aJupyter/ThinkLLM),专注于从零实现大模型的各种组件
7072

7173
---
7274

@@ -101,6 +103,8 @@
101103
</table>
102104

103105
## 🎇最近更新
106+
- 【2025.3】基于InternLM2.5-7B-chat全量微调的[EmoLLM(GGUF格式,fp16精度)](https://huggingface.co/collections/L0ve1ace/psychology-llm-gguf-67cc766eaf0a3f01c6e39aa6) ,如何操作后续会更新~ @Rycen7822 @Slipstream-Max
107+
- 【2025.2】更新[首个心理健康R1蒸馏数据集](./datasets/psychology-10k-Deepseek-R1-zh.json) @Kedreamix
104108
- 【2024.09.14】基于Qwen2-7B-Instruct模型的Lora微调模型开源,微调配置文件地址:[Qwen2-7B-Instruct_lora.py](./xtuner_config/Qwen2-7B-Instruct_lora.py) ,模型权重链接:[ModelScope](https://www.modelscope.cn/models/aJupyter/EmoLLM_Qwen2-7B-Instruct_lora/)
105109
- 【2024.08】基于GLM4-9B-chat微调Lora模型开源(基于LLaMA-Factory),详情见[微调教程](./doc/GLM-4-9B-chat%20Lora%20微调(llama-factory).md) ,模型权重链接:[ModelScope](https://www.modelscope.cn/models/wwewwt/EmoLLM-glm-4-9b-chat/summary)
106110
- 【2024.07.16】欢迎大家体验 EmoLLM V3.0 ,该模型是基于InternLM2.5-7B-Chat模型的全量微调,微调配置文件地址:[internlm2_5_chat_7b_full.py](./xtuner_config/internlm2_5_chat_7b_full.py) ,模型权重链接:[OpenXLab](https://openxlab.org.cn/models/detail/chg0901/EmoLLM_V3.0), [ModelScope](https://modelscope.cn/models/chg0901/EmoLLMV3.0) ,WebDemo地址: [OpenXLab apps](https://openxlab.org.cn/apps/detail/chg0901/EmoLLMV3.0), [配套全量微调知乎教程](https://zhuanlan.zhihu.com/p/708931911)
@@ -115,15 +119,16 @@
115119
- 【2023.04.14】新增[快速开始](docs/quick_start.md)和保姆级教程[BabyEmoLLM](Baby_EmoLLM.ipynb)
116120
- 【2024.04.02】在 Huggingface 上传[老母亲心理咨询师](https://huggingface.co/brycewang2018/EmoLLM-mother/tree/main)
117121
- 【2024.03.25】在百度飞桨平台发布[爹系男友心理咨询师](https://aistudio.baidu.com/community/app/68787)
122+
123+
124+
<details>
125+
<summary>查看更多</summary>
126+
118127
- 【2024.03.24】在**OpenXLab****ModelScope**平台发布**InternLM2-Base-7B QLoRA微调模型**, 具体请查看[**InternLM2-Base-7B QLoRA**](./xtuner_config/README_internlm2_7b_base_qlora.md)
119128
- 【2024.03.12】在百度飞桨平台发布[艾薇](https://aistudio.baidu.com/community/app/63335)
120129
- 【2024.03.11】 **EmoLLM V2.0 相比 EmoLLM V1.0 全面提升,已超越 Role-playing ChatGPT 在心理咨询任务上的能力!**[点击体验EmoLLM V2.0](https://openxlab.org.cn/apps/detail/Farewell1/EmoLLMV2.0),更新[数据集统计及详细信息](./datasets/)[路线图](./assets/Roadmap_ZH.png)
121130
- 【2024.03.09】 新增并发功能加速 [QA 对生成](./scripts/qa_generation/)[RAG pipeline](./rag/)
122131
- 【2024.03.03】 [基于InternLM2-7B-chat全量微调版本EmoLLM V2.0开源](https://openxlab.org.cn/models/detail/ajupyter/EmoLLM_internlm2_7b_full),需要两块A100*80G,更新专业评估,详见[evaluate](./evaluate/),更新基于PaddleOCR的PDF转txt工具脚本,详见[scripts](./scripts/)
123-
124-
<details>
125-
<summary>查看更多</summary>
126-
127132
- 【2024.02.29】更新客观评估计算,详见[evaluate](./evaluate/),更新一系列数据集,详见[datasets](./datasets/)
128133
- 【2024.02.27】更新英文readme和一系列数据集(舔狗和单轮对话)
129134
- 【2024.02.23】推出基于InternLM2_7B_chat_qlora的 `温柔御姐心理医生艾薇`[点击获取模型权重](https://openxlab.org.cn/models/detail/ajupyter/EmoLLM_aiwei)[配置文件](xtuner_config/aiwei-internlm2_chat_7b_qlora.py)[在线体验链接](https://openxlab.org.cn/apps/detail/ajupyter/EmoLLM-aiwei)

README_EN.md

+12-6
Original file line numberDiff line numberDiff line change
@@ -69,7 +69,9 @@
6969

7070
</div>
7171

72-
Everyone is welcome to contribute to this project ~
72+
🎉 Everyone is welcome to contribute to this project!
73+
74+
🔍 Those who are interested in the principles and underlying implementations of LLMs can follow [ThinkLLM](https://github.com/aJupyter/ThinkLLM), which focuses on building various components of large models from scratch.
7375

7476
---
7577

@@ -105,6 +107,8 @@ The Model aims to fully understand and promote the mental health of individuals,
105107
</table>
106108

107109
## Recent Updates
110+
- [2025.3] Based on the full fine-tuning of InternLM2.5-7B-chat, [EmoLLM (in GGUF format, fp16 precision)](https://huggingface.co/collections/L0ve1ace/psychology-llm-gguf-67cc766eaf0a3f01c6e39aa6) has been released. Updates on how to operate it will be provided later. @Rycen7822 @Slipstream-Max
111+
- [2025.2] Updated the [first mental health R1 distillation dataset](./datasets/psychology-10k-Deepseek-R1-zh.json) @Kedreamix
108112
- [2024.09.14] The Lora fine-tuned model based on the Qwen2-7B-Instruct model is open-sourced. Fine-tuning configuration file address: [Qwen2-7B-Instruct_lora.py](./xtuner_config/Qwen2-7B-Instruct_lora.py), model weight link: [ModelScope](https://www.modelscope.cn/models/aJupyter/EmoLLM_Qwen2-7B-Instruct_lora/)
109113
- [2024.08] The Lora fine-tuned model based on GLM4-9B-chat is open-sourced (based on Llama-factory). For details, see [Fine-tuning Tutorial](./doc/GLM-4-9B-chat%20Lora%20微调(llama-factory).md), model weight link: [ModelScope](https://www.modelscope.cn/models/wwewwt/EmoLLM-glm-4-9b-chat/summary)
110114
- [2024.07.16] Welcome everyone to experience EmoLLM V3.0. This model is a fully fine-tuned version based on the InternLM2.5-7B-Chat model. The fine-tuning configuration file can be found at: [internlm2_5_chat_7b_full.py](./xtuner_config/internlm2_5_chat_7b_full.py). Model weights are available at: [OpenXLab](https://openxlab.org.cn/models/detail/chg0901/EmoLLM_V3.0), [ModelScope](https://modelscope.cn/models/chg0901/EmoLLMV3.0). WebDemo is available at: [OpenXLab apps](https://openxlab.org.cn/apps/detail/chg0901/EmoLLMV3.0), [Full fine-tuning tutorial on Zhihu](https://zhuanlan.zhihu.com/p/708931911).
@@ -120,16 +124,18 @@ The Model aims to fully understand and promote the mental health of individuals,
120124
- [2024.04.02] Uploaded at Huggingface [Old Mother Counsellor](https://huggingface.co/brycewang2018/EmoLLM-mother/tree/main)
121125
- [2024.03.25] [Mother-like Therapist] is released on Huggingface (https://huggingface.co/brycewang2018/EmoLLM-mother/tree/main)
122126
- [2024.03.25] [Daddy-like Boy-Friend] is released on Baidu Paddle-Paddle AI Studio Platform (https://aistudio.baidu.com/community/app/68787)
123-
- [2024.03.24] The **InternLM2-Base-7B QLoRA fine-tuned model** has been released on the **OpenXLab** and **ModelScope** platforms. For more details, please refer to [**InternLM2-Base-7B QLoRA**](./xtuner_config/README_internlm2_7b_base_qlora.md).
124-
- [2024.03.12] [aiwei] is released on Baidu Paddle-Paddle AI Studio Platform (https://aistudio.baidu.com/community/app/63335)
125-
- [2024.03.11] **EmoLLM V2.0 is greatly improved in all scores compared to EmoLLM V1.0. Surpasses the performance of Role-playing ChatGPT on counseling tasks!** [Click to experience EmoLLM V2.0](https://openxlab.org.cn/apps/detail/Farewell1/EmoLLMV2.0), update [dataset statistics and details](./datasets/), [Roadmap](./assets/Roadmap_ZH.png)
126-
- [2024.03.09] Add concurrency acceleration [QA pair generation](./scripts/qa_generation/), [RAG pipeline](./rag/)
127-
- [2024.03.03] [Based on InternLM2-7B-chat full fine-tuned version EmoLLM V2.0 open sourced](https://openxlab.org.cn/models/detail/ajupyter/EmoLLM_internlm2_7b_full), need two A100*80G, update professional evaluation, see [evaluate](./evaluate/), update PaddleOCR-based PDF to txt tool scripts, see [scripts](./scripts/).
127+
128128

129129

130130
<details>
131131
<summary>View More</summary>
132132

133+
134+
- [2024.03.24] The **InternLM2-Base-7B QLoRA fine-tuned model** has been released on the **OpenXLab** and **ModelScope** platforms. For more details, please refer to [**InternLM2-Base-7B QLoRA**](./xtuner_config/README_internlm2_7b_base_qlora.md).
135+
- [2024.03.12] [aiwei] is released on Baidu Paddle-Paddle AI Studio Platform (https://aistudio.baidu.com/community/app/63335)
136+
- [2024.03.11] **EmoLLM V2.0 is greatly improved in all scores compared to EmoLLM V1.0. Surpasses the performance of Role-playing ChatGPT on counseling tasks!** [Click to experience EmoLLM V2.0](https://openxlab.org.cn/apps/detail/Farewell1/EmoLLMV2.0), update [dataset statistics and details](./datasets/), [Roadmap](./assets/Roadmap_ZH.png)
137+
- [2024.03.09] Add concurrency acceleration [QA pair generation](./scripts/qa_generation/), [RAG pipeline](./rag/)
138+
- [2024.03.03] [Based on InternLM2-7B-chat full fine-tuned version EmoLLM V2.0 open sourced](https://openxlab.org.cn/models/detail/ajupyter/EmoLLM_internlm2_7b_full), need two A100*80G, update professional evaluation, see [evaluate](./evaluate/), update PaddleOCR-based PDF to txt tool scripts, see [scripts](./scripts/).
133139
- [2024.02.29] Updated objective assessment calculations, see [evaluate](./evaluate/) for details. A series of datasets have also been updated, see [datasets](./datasets/) for details.
134140
- [2024.02.27] Updated English README and a series of datasets (licking dogs and one-round dialogue)
135141
- [2024.02.23]The "Gentle Lady Psychologist Ai Wei" based on InternLM2_7B_chat_qlora was launched. [Click here to obtain the model weights](https://openxlab.org.cn/models/detail/ajupyter/EmoLLM_aiwei), [configuration file](xtuner_config/aiwei-internlm2_chat_7b_qlora.py), [online experience link](https://openxlab.org.cn/apps/detail/ajupyter/EmoLLM-aiwei)

README_JP.md

+14-4
Original file line numberDiff line numberDiff line change
@@ -67,7 +67,9 @@
6767

6868
</div>
6969

70-
皆さんのこのプロジェクトへの貢献をお待ちしています~
70+
🎉このプロジェクトに貢献してくださる方を歓迎します!
71+
72+
🔍LLMの原理や底层実装に興味がある方は、[ThinkLLM](https://github.com/aJupyter/ThinkLLM)に注目してください。大規模モデルの各種コンポーネントをゼロから実装することに注力しています。
7173

7274
---
7375

@@ -102,6 +104,12 @@
102104
</table>
103105

104106
## 最近の更新
107+
108+
- 【2025.3】 InternLM2.5-7B-chat のフルファインチューニングに基づいて、[EmoLLM (GGUF形式、fp16精度)](https://huggingface.co/collections/L0ve1ace/psychology-llm-gguf-67cc766eaf0a3f01c6e39aa6) がリリースされました。操作方法については後日更新されます。@Rycen7822 @Slipstream-Max
109+
- 【2025.2】 最初のメンタルヘルス R1 スティルデータセットを更新しました。[psychology-10k-Deepseek-R1-zh.json](./datasets/psychology-10k-Deepseek-R1-zh.json) @Kedreamix
110+
- 【2024.09.14】 Qwen2-7B-Instruct モデルに基づく Lora ファインチューニングモデルがオープンソース化されました。ファインチューニング設定ファイルアドレス: [Qwen2-7B-Instruct_lora.py](./xtuner_config/Qwen2-7B-Instruct_lora.py)、モデルウェイトリンク: [ModelScope](https://www.modelscope.cn/models/aJupyter/EmoLLM_Qwen2-7B-Instruct_lora/)
111+
- 【2024.08】 GLM4-9B-chat をベースにした Lora ファインチューニングモデルがオープンソース化されました(Llama-factory 基づく)。詳細は [Fine-tuning Tutorial](./doc/GLM-4-9B-chat%20Lora%20微调(llama-factory).md) をご覧ください。モデルウェイトリンク: [ModelScope](https://www.modelscope.cn/models/wwewwt/EmoLLM-glm-4-9b-chat/summary)
112+
- 【2024.07.16】 EmoLLM V3.0 を体験していただけます。このモデルは InternLM2.5-7B-Chat モデルに基づくフルファインチューニングバージョンです。ファインチューニング設定ファイルは [internlm2_5_chat_7b_full.py](./xtuner_config/internlm2_5_chat_7b_full.py) で見つけることができます。モデルウェイトは [OpenXLab](https://openxlab.org.cn/models/detail/chg0901/EmoLLM_V3.0)[ModelScope](https://modelscope.cn/models/chg0901/EmoLLMV3.0) でご利用いただけます。WebDemo は [OpenXLab apps](https://openxlab.org.cn/apps/detail/chg0901/EmoLLMV3.0)[Zhihu 上のフルファインチューニングチュートリアル](https://zhuanlan.zhihu.com/p/708931911) でご利用いただけます。
105113
- 【2024.7】EmoLLM V2.0の安定版を日常使用および学術研究にご利用ください。モデルの重みリンク:[OpenXLab](https://openxlab.org.cn/models/detail/ajupyter/EmoLLM_internlm2_7b_full/tree/main)
106114
- 【2024.7】InternLM2_5_7B_chatの微調整構成を追加しました。[ModelScope](https://www.modelscope.cn/models/z342994309/emollm_interlm2_5/)
107115
- 【2024.6】[LLaMA-Factory](https://github.com/hiyouga/LLaMA-Factory)[GLM4-9B-chat微調整ガイド](./doc/GLM-4-9B-chat%20Lora%20微调(llama-factory).md)を追加しました。[swiftベースの微調整ガイド](./swift/)を追加しました。論文[ESC-Eval: Evaluating Emotion Support Conversations in Large Language Models](https://arxiv.org/abs/2406.14952)がEmoLLMを引用し、EmoLLMが良好な結果を達成しました。
@@ -114,6 +122,11 @@
114122
- [2024.04.02] Huggingfaceに[Old Mother Counsellor](https://huggingface.co/brycewang2018/EmoLLM-mother/tree/main)をアップロードしました。
115123
- [2024.03.25] [Mother-like Therapist]がHuggingfaceで公開されました(https://huggingface.co/brycewang2018/EmoLLM-mother/tree/main)。
116124
- [2024.03.25] [Daddy-like Boy-Friend]がBaidu Paddle-Paddle AI Studioプラットフォームで公開されました(https://aistudio.baidu.com/community/app/68787)。
125+
126+
127+
<details>
128+
<summary>もっと見る</summary>
129+
117130
- [2024.03.24] **InternLM2-Base-7B QLoRA微調整モデル****OpenXLab****ModelScope**プラットフォームで公開されました。詳細は[**InternLM2-Base-7B QLoRA**](./xtuner_config/README_internlm2_7b_base_qlora.md)をご覧ください。
118131
- [2024.03.12] [aiwei]がBaidu Paddle-Paddle AI Studioプラットフォームで公開されました(https://aistudio.baidu.com/community/app/63335)。
119132
- [2024.03.11] **EmoLLM V2.0はEmoLLM V1.0と比較して全体的に向上し、心理カウンセリングタスクにおいてRole-playing ChatGPTを上回る能力を持っています!** [EmoLLM V2.0を体験する](https://openxlab.org.cn/apps/detail/Farewell1/EmoLLMV2.0)[データセットの統計と詳細情報](./datasets/)[ロードマップ](./assets/Roadmap_ZH.png)を更新しました。
@@ -125,9 +138,6 @@
125138
- [2024.02.23] [いくつかの微調整構成](/xtuner_config/)を更新しました。[data_pro.json](/datasets/data_pro.json)(より多くの量、より包括的なシナリオ、より豊富な内容)と[aiwei.json](/datasets/aiwei.json)(優しいお姉さんのロールプレイ専用、Emoji表現を含む)を追加しました。「優しいお姉さん心理カウンセラーAi Wei」が近日公開予定です。
126139
- [2024.02.18] [Qwen1_5-0_5B-Chat全量微調整バージョンがオープンソース化されました](https://www.modelscope.cn/models/aJupyter/EmoLLM_Qwen1_5-0_5B-Chat_full_sft/summary)。計算リソースが限られている方もぜひお試しください。
127140

128-
<details>
129-
<summary>もっと見る</summary>
130-
131141
- [2024.02.06] [Qwen1_5-0_5B-Chat全量微調整バージョンがオープンソース化されました](https://www.modelscope.cn/models/aJupyter/EmoLLM_Qwen1_5-0_5B-Chat_full_sft/summary)。計算リソースが限られている方もぜひお試しください。
132142

133143
<p align="center">

0 commit comments

Comments
 (0)