shibing624 commited on
Commit
ba6c186
1 Parent(s): 0976041

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +11 -14
README.md CHANGED
@@ -12,7 +12,7 @@ widget:
12
 
13
  ---
14
 
15
- # Chinese Spelling Correction LoRA Model
16
  ChatGLM中文问答LoRA模型
17
 
18
  `chatglm-6b-belle-zh-lora` evaluate test data:
@@ -23,27 +23,27 @@ The overall performance of chatglm-6b-belle-zh-lora on QA **test**:
23
  |:-- |:--- |
24
  |介绍下北京|北京是中国的首都,是中国的政治、文化和经济中心。它位于中国的北部,拥有悠久的历史和文化遗产,如故宫、长城和天坛等。北京也是中国最著名的城市之一,有着丰富的美食、文化和娱乐活动。北京还有许多旅游景点,如颐和园、圆明园和天坛等。北京是一个充满活力和机会的城市,吸引了来自全国和世界各地的人们前来探索。|
25
 
26
- 在中文开放测试集中的表现优异,继承了两方面的优势:1)微调的底座是ChatGLM-6B模型,中文的表现优于LLAMA,2)微调使用的100万高质量的中文Belle数据集,微调后的模型对话效果优于原始ChatGLM-6B。
27
 
28
 
29
  ## Usage
30
 
31
- 本项目开源在lmft项目:[lmft](https://github.com/shibing624/lmft),可支持ChatGLM模型,通过如下命令调用:
32
 
33
  Install package:
34
  ```shell
35
- pip install -U lmft
36
  ```
37
 
38
  ```python
39
- from lmft import ChatGlmModel
40
  model = ChatGlmModel("chatglm", "THUDM/chatglm-6b", lora_name="shibing624/chatglm-6b-belle-zh-lora")
41
  r = model.predict(["介绍下北京\n答:"])
42
  print(r) # ['北京是中国的首都,是中国的政治、文化和经济中心。...']
43
  ```
44
 
45
  ## Usage (HuggingFace Transformers)
46
- Without [lmft](https://github.com/shibing624/lmft), you can use the model like this:
47
 
48
  First, you pass your input through the transformer model, then you get the generated sentence.
49
 
@@ -94,19 +94,16 @@ chatglm-6b-belle-zh-lora
94
  5. 69万条中文指令Guanaco数据集(Belle50万条+Guanaco19万条):[Chinese-Vicuna/guanaco_belle_merge_v1.0](https://huggingface.co/datasets/Chinese-Vicuna/guanaco_belle_merge_v1.0)
95
 
96
 
97
- 如果需要训练ChatGLM模型,请参考[https://github.com/shibing624/lmft](https://github.com/shibing624/lmft)
98
 
99
 
100
  ## Citation
101
 
102
  ```latex
103
- @software{lmft,
104
  author = {Xu Ming},
105
- title = {lmft: Implementation of language model finetune},
106
- year = {2023},
107
- url = {https://github.com/shibing624/lmft},
108
  }
109
  ```
110
-
111
-
112
-
 
12
 
13
  ---
14
 
15
+ # Chinese QA LoRA Model
16
  ChatGLM中文问答LoRA模型
17
 
18
  `chatglm-6b-belle-zh-lora` evaluate test data:
 
23
  |:-- |:--- |
24
  |介绍下北京|北京是中国的首都,是中国的政治、文化和经济中心。它位于中国的北部,拥有悠久的历史和文化遗产,如故宫、长城和天坛等。北京也是中国最著名的城市之一,有着丰富的美食、文化和娱乐活动。北京还有许多旅游景点,如颐和园、圆明园和天坛等。北京是一个充满活力和机会的城市,吸引了来自全国和世界各地的人们前来探索。|
25
 
26
+ 在中文开放测试集中的表现优异,继承了两方面的优势:1)微调的底座是ChatGLM-6B模型,中文的表现优于LLAMA,2)微调使用的是高质量100万条中文ChatGPT指令Belle数据集,微调后的模型对话效果优于原始ChatGLM-6B。
27
 
28
 
29
  ## Usage
30
 
31
+ 本项目开源在textgen项目:[textgen](https://github.com/shibing624/textgen),可支持ChatGLM模型,通过如下命令调用:
32
 
33
  Install package:
34
  ```shell
35
+ pip install -U textgen
36
  ```
37
 
38
  ```python
39
+ from textgen import ChatGlmModel
40
  model = ChatGlmModel("chatglm", "THUDM/chatglm-6b", lora_name="shibing624/chatglm-6b-belle-zh-lora")
41
  r = model.predict(["介绍下北京\n答:"])
42
  print(r) # ['北京是中国的首都,是中国的政治、文化和经济中心。...']
43
  ```
44
 
45
  ## Usage (HuggingFace Transformers)
46
+ Without [textgen](https://github.com/shibing624/textgen), you can use the model like this:
47
 
48
  First, you pass your input through the transformer model, then you get the generated sentence.
49
 
 
94
  5. 69万条中文指令Guanaco数据集(Belle50万条+Guanaco19万条):[Chinese-Vicuna/guanaco_belle_merge_v1.0](https://huggingface.co/datasets/Chinese-Vicuna/guanaco_belle_merge_v1.0)
95
 
96
 
97
+ 如果需要训练ChatGLM模型,请参考[https://github.com/shibing624/textgen](https://github.com/shibing624/textgen)
98
 
99
 
100
  ## Citation
101
 
102
  ```latex
103
+ @software{textgen,
104
  author = {Xu Ming},
105
+ title = {textgen: Implementation of language model finetune},
106
+ year = {2021},
107
+ url = {https://github.com/shibing624/textgen},
108
  }
109
  ```