shibing624
commited on
Commit
•
ba6c186
1
Parent(s):
0976041
Update README.md
Browse files
README.md
CHANGED
@@ -12,7 +12,7 @@ widget:
|
|
12 |
|
13 |
---
|
14 |
|
15 |
-
# Chinese
|
16 |
ChatGLM中文问答LoRA模型
|
17 |
|
18 |
`chatglm-6b-belle-zh-lora` evaluate test data:
|
@@ -23,27 +23,27 @@ The overall performance of chatglm-6b-belle-zh-lora on QA **test**:
|
|
23 |
|:-- |:--- |
|
24 |
|介绍下北京|北京是中国的首都,是中国的政治、文化和经济中心。它位于中国的北部,拥有悠久的历史和文化遗产,如故宫、长城和天坛等。北京也是中国最著名的城市之一,有着丰富的美食、文化和娱乐活动。北京还有许多旅游景点,如颐和园、圆明园和天坛等。北京是一个充满活力和机会的城市,吸引了来自全国和世界各地的人们前来探索。|
|
25 |
|
26 |
-
在中文开放测试集中的表现优异,继承了两方面的优势:1)微调的底座是ChatGLM-6B模型,中文的表现优于LLAMA,2
|
27 |
|
28 |
|
29 |
## Usage
|
30 |
|
31 |
-
本项目开源在
|
32 |
|
33 |
Install package:
|
34 |
```shell
|
35 |
-
pip install -U
|
36 |
```
|
37 |
|
38 |
```python
|
39 |
-
from
|
40 |
model = ChatGlmModel("chatglm", "THUDM/chatglm-6b", lora_name="shibing624/chatglm-6b-belle-zh-lora")
|
41 |
r = model.predict(["介绍下北京\n答:"])
|
42 |
print(r) # ['北京是中国的首都,是中国的政治、文化和经济中心。...']
|
43 |
```
|
44 |
|
45 |
## Usage (HuggingFace Transformers)
|
46 |
-
Without [
|
47 |
|
48 |
First, you pass your input through the transformer model, then you get the generated sentence.
|
49 |
|
@@ -94,19 +94,16 @@ chatglm-6b-belle-zh-lora
|
|
94 |
5. 69万条中文指令Guanaco数据集(Belle50万条+Guanaco19万条):[Chinese-Vicuna/guanaco_belle_merge_v1.0](https://huggingface.co/datasets/Chinese-Vicuna/guanaco_belle_merge_v1.0)
|
95 |
|
96 |
|
97 |
-
如果需要训练ChatGLM模型,请参考[https://github.com/shibing624/
|
98 |
|
99 |
|
100 |
## Citation
|
101 |
|
102 |
```latex
|
103 |
-
@software{
|
104 |
author = {Xu Ming},
|
105 |
-
title = {
|
106 |
-
year = {
|
107 |
-
url = {https://github.com/shibing624/
|
108 |
}
|
109 |
```
|
110 |
-
|
111 |
-
|
112 |
-
|
|
|
12 |
|
13 |
---
|
14 |
|
15 |
+
# Chinese QA LoRA Model
|
16 |
ChatGLM中文问答LoRA模型
|
17 |
|
18 |
`chatglm-6b-belle-zh-lora` evaluate test data:
|
|
|
23 |
|:-- |:--- |
|
24 |
|介绍下北京|北京是中国的首都,是中国的政治、文化和经济中心。它位于中国的北部,拥有悠久的历史和文化遗产,如故宫、长城和天坛等。北京也是中国最著名的城市之一,有着丰富的美食、文化和娱乐活动。北京还有许多旅游景点,如颐和园、圆明园和天坛等。北京是一个充满活力和机会的城市,吸引了来自全国和世界各地的人们前来探索。|
|
25 |
|
26 |
+
在中文开放测试集中的表现优异,继承了两方面的优势:1)微调的底座是ChatGLM-6B模型,中文的表现优于LLAMA,2)微调使用的是高质量100万条中文ChatGPT指令Belle数据集,微调后的模型对话效果优于原始ChatGLM-6B。
|
27 |
|
28 |
|
29 |
## Usage
|
30 |
|
31 |
+
本项目开源在textgen项目:[textgen](https://github.com/shibing624/textgen),可支持ChatGLM模型,通过如下命令调用:
|
32 |
|
33 |
Install package:
|
34 |
```shell
|
35 |
+
pip install -U textgen
|
36 |
```
|
37 |
|
38 |
```python
|
39 |
+
from textgen import ChatGlmModel
|
40 |
model = ChatGlmModel("chatglm", "THUDM/chatglm-6b", lora_name="shibing624/chatglm-6b-belle-zh-lora")
|
41 |
r = model.predict(["介绍下北京\n答:"])
|
42 |
print(r) # ['北京是中国的首都,是中国的政治、文化和经济中心。...']
|
43 |
```
|
44 |
|
45 |
## Usage (HuggingFace Transformers)
|
46 |
+
Without [textgen](https://github.com/shibing624/textgen), you can use the model like this:
|
47 |
|
48 |
First, you pass your input through the transformer model, then you get the generated sentence.
|
49 |
|
|
|
94 |
5. 69万条中文指令Guanaco数据集(Belle50万条+Guanaco19万条):[Chinese-Vicuna/guanaco_belle_merge_v1.0](https://huggingface.co/datasets/Chinese-Vicuna/guanaco_belle_merge_v1.0)
|
95 |
|
96 |
|
97 |
+
如果需要训练ChatGLM模型,请参考[https://github.com/shibing624/textgen](https://github.com/shibing624/textgen)
|
98 |
|
99 |
|
100 |
## Citation
|
101 |
|
102 |
```latex
|
103 |
+
@software{textgen,
|
104 |
author = {Xu Ming},
|
105 |
+
title = {textgen: Implementation of language model finetune},
|
106 |
+
year = {2021},
|
107 |
+
url = {https://github.com/shibing624/textgen},
|
108 |
}
|
109 |
```
|
|
|
|
|
|