Update README.md
Browse files
README.md
CHANGED
@@ -5,10 +5,13 @@ base_model_relation: quantized
|
|
5 |
language:
|
6 |
- zh
|
7 |
- en
|
|
|
|
|
8 |
---
|
9 |
-
|
10 |
# GLM-4-Voice-9B (INT8 Quantized)
|
11 |
|
|
|
|
|
12 |
## 模型简介
|
13 |
GLM-4-Voice 是智谱 AI 推出的端到端语音模型。GLM-4-Voice 能够直接理解和生成中英文语音,进行实时语音对话,并且能够根据用户的指令改变语音的情感、语调、语速、方言等属性。
|
14 |
本仓库是是GLM-4-Voice-9B经过INT8量化的版本。
|
@@ -18,7 +21,7 @@ GLM-4-Voice 是智谱 AI 推出的端到端语音模型。GLM-4-Voice 能够直
|
|
18 |
### 创建虚拟环境
|
19 |
首先,确保使用Python 3.10,创建虚拟环境:
|
20 |
```bash
|
21 |
-
#
|
22 |
conda create -n GLM-4-Voice python=3.10
|
23 |
```
|
24 |
|
@@ -36,8 +39,13 @@ git clone https://hf-mirror.com/cydxg/glm-4-voice-9b-int8
|
|
36 |
### 安装依赖
|
37 |
进入模型目录并安装所需依赖:
|
38 |
```bash
|
39 |
-
cd glm-4-voice-9b-
|
|
|
|
|
40 |
pip install -r requirements.txt
|
|
|
|
|
|
|
41 |
# 根据自己的CUDA版本选择torch
|
42 |
conda install pytorch==2.4.1 torchvision==0.19.1 torchaudio==2.4.1 pytorch-cuda=12.4 -c pytorch -c nvidia
|
43 |
```
|
@@ -53,4 +61,17 @@ python model_server.py
|
|
53 |
```bash
|
54 |
python web_demo.py
|
55 |
```
|
56 |
-
即可通过访问 `http://localhost:8888` 来使用模型。
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
5 |
language:
|
6 |
- zh
|
7 |
- en
|
8 |
+
tags:
|
9 |
+
- chatglm
|
10 |
---
|
|
|
11 |
# GLM-4-Voice-9B (INT8 Quantized)
|
12 |
|
13 |
+
[中文](README.md) | [English](README_en.md)
|
14 |
+
|
15 |
## 模型简介
|
16 |
GLM-4-Voice 是智谱 AI 推出的端到端语音模型。GLM-4-Voice 能够直接理解和生成中英文语音,进行实时语音对话,并且能够根据用户的指令改变语音的情感、语调、语速、方言等属性。
|
17 |
本仓库是是GLM-4-Voice-9B经过INT8量化的版本。
|
|
|
21 |
### 创建虚拟环境
|
22 |
首先,确保使用Python 3.10,创建虚拟环境:
|
23 |
```bash
|
24 |
+
# 亲测不支持python3.8/3.9/3.12,存在库兼容问题
|
25 |
conda create -n GLM-4-Voice python=3.10
|
26 |
```
|
27 |
|
|
|
39 |
### 安装依赖
|
40 |
进入模型目录并安装所需依赖:
|
41 |
```bash
|
42 |
+
cd glm-4-voice-9b-int4
|
43 |
+
conda install -c conda-forge openfst
|
44 |
+
conda install -c conda-forge pynini==2.1.5
|
45 |
pip install -r requirements.txt
|
46 |
+
mkdir third_party
|
47 |
+
cd third_party
|
48 |
+
git clone https://github.com/shivammehta25/Matcha-TTS Matcha-TTS
|
49 |
# 根据自己的CUDA版本选择torch
|
50 |
conda install pytorch==2.4.1 torchvision==0.19.1 torchaudio==2.4.1 pytorch-cuda=12.4 -c pytorch -c nvidia
|
51 |
```
|
|
|
61 |
```bash
|
62 |
python web_demo.py
|
63 |
```
|
64 |
+
即可通过访问 `http://localhost:8888` 来使用模型。
|
65 |
+
|
66 |
+
### 额外依赖
|
67 |
+
如果运行web_demo提示没有matcha.models
|
68 |
+
```bash
|
69 |
+
ModuleNotFoundError: No module named 'matcha.models'; 'matcha' is not a package
|
70 |
+
```
|
71 |
+
则需安装matcha-tts
|
72 |
+
```bash
|
73 |
+
# 先卸载 gradio 和 diffusers ,避免出现版本冲突
|
74 |
+
pip uninstall gradio
|
75 |
+
pip uninstall diffusers
|
76 |
+
pip install matcha-tts
|
77 |
+
```
|