AnhP commited on
Commit
bc356f2
·
verified ·
1 Parent(s): 1e4a2ab

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +478 -469
README.md CHANGED
@@ -1,470 +1,479 @@
1
- <div align="center">
2
- <img alt="LOGO" src="assets/ico.png" width="300" height="300" />
3
-
4
- # Vietnamese RVC BY ANH
5
- Công cụ chuyển đổi giọng nói chất lượng và hiệu suất cao đơn giản.
6
-
7
- [![Vietnamese RVC](https://img.shields.io/badge/GitHub-100000?style=for-the-badge&logo=github&logoColor=white)](https://github.com/PhamHuynhAnh16/Vietnamese-RVC)
8
- [![Open In Colab](https://img.shields.io/badge/Colab-F9AB00?style=for-the-badge&logo=googlecolab&color=525252)](https://colab.research.google.com/github/PhamHuynhAnh16/Vietnamese-RVC-ipynb/blob/main/Vietnamese-RVC.ipynb)
9
- [![Licence](https://img.shields.io/badge/LICENSE-MIT-green?style=for-the-badge)](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/blob/main/LICENSE)
10
-
11
- </div>
12
-
13
- <div align="center">
14
-
15
- [![Hugging Face](https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-Spaces-blue)](https://huggingface.co/spaces/AnhP/RVC-GUI)
16
- [![Hugging Face](https://img.shields.io/badge/%F0%9F%A4%97-Models-blue)](https://huggingface.co/AnhP/Vietnamese-RVC-Project)
17
-
18
- </div>
19
-
20
- # Mô tả
21
-
22
- Dự án này là một công cụ chuyển đổi giọng nói đơn giản, dễ sử dụng. Với mục tiêu tạo ra các sản phẩm chuyển đổi giọng nói chất lượng cao và hiệu suất tối ưu, dự án cho phép người dùng thay đổi giọng nói một cách mượt mà, tự nhiên.
23
-
24
- # Các tính năng của dự án
25
-
26
- - Tách nhạc (MDX-Net/Demucs)
27
-
28
- - Chuyển đổi giọng nói (Chuyển đổi tệp / Chuyển đổi hàng loạt / Chuyển đổi với Whisper / Chuyển đổi văn bản)
29
-
30
- - Áp dụng hiệu ứng cho âm thanh
31
-
32
- - Tạo dữ liệu huấn luyện (Từ đường dẫn liên kết)
33
-
34
- - Huấn luyện mô hình (v1/v2, bộ mã hóa chất lượng cao, huấn luyện năng lượng)
35
-
36
- - Dung hợp mô hình
37
-
38
- - Đọc thông tin mô hình
39
-
40
- - Xuất mô hình sang ONNX
41
-
42
- - Tải xuống từ kho mô hình có sẳn
43
-
44
- - Tìm kiếm mô hình từ web
45
-
46
- - Trích xuất cao độ
47
-
48
- - Hỗ trợ suy luận chuyển đổi âm thanh bằng mô hình ONNX
49
-
50
- - Mô hình ONNX RVC cũng sẽ hỗ trợ chỉ mục để suy luận
51
-
52
- **Phương thức trích xuất cao độ: `pm-ac, pm-cc, pm-shs, dio, mangio-crepe-tiny, mangio-crepe-small, mangio-crepe-medium, mangio-crepe-large, mangio-crepe-full, crepe-tiny, crepe-small, crepe-medium, crepe-large, crepe-full, fcpe, fcpe-legacy, rmvpe, rmvpe-legacy, harvest, yin, pyin, swipe, piptrack, fcn`**
53
-
54
- **Các mô hình trích xuất nhúng: `contentvec_base, hubert_base, vietnamese_hubert_base, japanese_hubert_base, korean_hubert_base, chinese_hubert_base, portuguese_hubert_base, spin`**
55
-
56
- - **Các mô hình trích xuất cao độ đều có phiên bản tăng tốc ONNX trừ các phương thức hoạt động bằng trình bao bọc.**
57
- - **Các hình trích xuất đều thể kết hợp với nhau để tạo ra cảm giác mới mẻ, ví dụ: `hybrid[rmvpe+harvest]`.**
58
- - **Các mô hình trích xuất nhúng có sẳn các chế độ nhúng như: fairseq, onnx, transformers, spin.**
59
-
60
- # Hướng dẫn sử dụng
61
-
62
- **Sẽ có nếu tôi thực sự rảnh...**
63
-
64
- # Cài đặt
65
-
66
- Bước 1: Cài đặt các phần phụ trợ cần thiết
67
-
68
- - Cài đặt Python từ trang chủ: **[PYTHON](https://www.python.org/ftp/python/3.11.8/python-3.11.8-amd64.exe)** (Dự án đã được kiểm tra trên Python 3.10.x và 3.11.x)
69
- - Cài đặt FFmpeg từ nguồn và thêm vào PATH hệ thống: **[FFMPEG](https://github.com/BtbN/FFmpeg-Builds/releases)**
70
-
71
- Bước 2: Cài đặt dự án (Dùng Git hoặc đơn giản là tải trên github)
72
-
73
- Sử dụng đối với Git:
74
- - git clone https://github.com/PhamHuynhAnh16/Vietnamese-RVC.git
75
- - cd Vietnamese-RVC
76
-
77
- Cài đặt bằng github:
78
- - Vào https://github.com/PhamHuynhAnh16/Vietnamese-RVC
79
- - Nhấn vào `<> Code` màu xanh lá chọn `Download ZIP`
80
- - Giải nén `Vietnamese-RVC-main.zip`
81
- - Vào thư mục Vietnamese-RVC-main chọn vào thanh Path nhập `cmd` và nhấn Enter
82
-
83
- Bước 3: Cài đặt thư viện cần thiết:
84
-
85
- Nhập lệnh:
86
- ```
87
- python -m venv env
88
- env\\Scripts\\activate
89
- ```
90
-
91
- Đối với CPU:
92
- ```
93
- python -m pip install -r requirements.txt
94
- ```
95
-
96
- Đối với CUDA (Có thể thay cu118 thành bản cu128 mới hơn nếu GPU hỗ trợ):
97
- ```
98
- python -m pip install torch torchaudio torchvision --index-url https://download.pytorch.org/whl/cu118
99
- python -m pip install -r requirements.txt
100
- ```
101
-
102
- Đối với AMD:
103
- ```
104
- python -m pip install torch==2.6.0 torchaudio==2.6.0 torchvision
105
- python -m pip install https://github.com/artyom-beilis/pytorch_dlprim/releases/download/0.2.0/pytorch_ocl-0.2.0+torch2.6-cp311-none-win_amd64.whl
106
- python -m pip install onnxruntime-directml
107
- python -m pip install -r requirements.txt
108
- ```
109
-
110
- Lưu ý đối với AMD:
111
- - Chỉ cài đặt AMD trên python 3.11 vì DLPRIM không có bản cho python 3.10.
112
- - Demucs có thể gây quá tải và tràn bộ nhớ đối với GPU (nếu cần sử dụng demucs hãy mở tệp config.json trong main\configs sửa đối số demucs_cpu_mode thành true).
113
- - DDP không hỗ trợ huấn luyện đa GPU đối với OPENCL (AMD).
114
- - Một số thuật toán khác phải chạy trên cpu nên có thể hiệu suất của GPU có thể không sử dụng hết.
115
-
116
- # Sử dụng
117
-
118
- **Sử dụng với Google Colab**
119
- - Mở Google Colab: [Vietnamese-RVC](https://colab.research.google.com/github/PhamHuynhAnh16/Vietnamese-RVC-ipynb/blob/main/Vietnamese-RVC.ipynb)
120
- - Bước 1: Chạy ô Cài đặt đợi hoàn tất.
121
- - Bước 2: Chạy ô Mở giao diện sử dụng (Khi này giao diện sẽ in ra 2 đường dẫn 1 0.0.0.0.7680 1 đường dẫn gradio thể nhấp được, bạn chọn vào đường dẫn nhấp được và nó sẽ đưa bạn đến giao diện).
122
-
123
- **Chạy tệp run_app để mở giao diện sử dụng, chạy tệp tensorboard để mở biểu đồ kiểm tra huấn luyện. (Lưu ý: không tắt Command Prompt hoặc Terminal)**
124
- ```
125
- run_app.bat / tensorboard.bat
126
- ```
127
-
128
- **Khởi động giao diện sử dụng. (Thêm `--allow_all_disk` vào lệnh để cho phép gradio truy cập tệp ngoài)**
129
- ```
130
- env\\Scripts\\python.exe main\\app\\app.py --open
131
- ```
132
-
133
- **Với trường hợp bạn sử dụng Tensorboard để kiểm tra huấn luyện**
134
- ```
135
- env\\Scripts\\python.exe main/app/run_tensorboard.py
136
- ```
137
-
138
- **Sử dụng bằng cú pháp**
139
- ```
140
- python main\\app\\parser.py --help
141
- ```
142
-
143
- # Cài đặt, sử dụng đơn giản
144
-
145
- **Cài đặt phiên bản releases từ [Vietnamese_RVC](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/releases)**
146
- - Chọn bản đúng với bạn và tải về máy.
147
- - Giải nén dự án.
148
- - Chạy tệp run_app.bat để mở giao diện hoạt động.
149
-
150
- # Cấu trúc chính của mã nguồn:
151
-
152
- <pre>
153
- Vietnamese-RVC-main
154
- ├── assets
155
- │ ├── binary
156
- │ │ ├── decrypt.bin
157
- │ │ └── world.bin
158
- │ ├── f0
159
- │ ├── languages
160
- │ │ ├── en-US.json
161
- │ │ └── vi-VN.json
162
- │ ├── logs
163
- │ │ └── mute
164
- ├── energy
165
- │ │ └── mute.wav.npy
166
- │ │ ├── f0
167
- │ │ └── mute.wav.npy
168
- ├── f0_voiced
169
- │ │ └── mute.wav.npy
170
- │ │ ├── sliced_audios
171
- │ │ ├── mute32000.wav
172
- │ │ ├── mute40000.wav
173
- │ │ │ └── mute48000.wav
174
- │ │ ├── sliced_audios_16k
175
- │ │ │ └── mute.wav
176
- │ │ ├── v1_extracted
177
- │ │ ├── mute.npy
178
- │ │ │ ├── mute_chinese.npy
179
- │ │ ├── mute_japanese.npy
180
- │ │ │ ├── mute_korean.npy
181
- │ │ │ ├── mute_portuguese.npy
182
- │ │ │ ├── mute_vietnamese.npy
183
- │ │ │ └── mute_spin.npy
184
- │ │ └── v2_extracted
185
- │ │ ├── mute.npy
186
- │ │ ├── mute_chinese.npy
187
- │ │ ├── mute_japanese.npy
188
- │ │ ├── mute_korean.npy
189
- │ │ ├── mute_portuguese.npy
190
- │ │ ├── mute_vietnamese.npy
191
- │ │ └── mute_spin.npy
192
- ├── models
193
- │ │ ├── embedders
194
- │ │ ├── predictors
195
- │ │ ├── pretrained_custom
196
- │ │ ├── pretrained_v1
197
- │ │ ├── pretrained_v2
198
- │ │ ├── speaker_diarization
199
- │ │├── assets
200
- │ │ │ │ ├── gpt2.tiktoken
201
- │ │ │ ├── mel_filters.npz
202
- │ │ │ │ └── multilingual.tiktoken
203
- │ │ │ └── models
204
- │ │ └── uvr5
205
- │ ├── presets
206
- │ ├── weights
207
- └── ico.png
208
- ├── audios
209
- ├── dataset
210
- ├── main
211
- ├── app
212
- │ │ ├── core
213
- │ │ │ ├── downloads.py
214
- │ │ ├── editing.py
215
- │ │ ├── f0_extract.py
216
- │ │ ├── inference.py
217
- │ │ │ ├── model_utils.py
218
- │ │ │ ├── presets.py
219
- │ │ │ ├── process.py
220
- │ │ ├── restart.py
221
- │ │ ├── separate.py
222
- │ │ │ ├── training.py
223
- │ │ ├── tts.py
224
- │ │ │ ├── ui.py
225
- │ │ │ └── utils.py
226
- │ │ ├── tabs
227
- │ │ │ ├── downloads
228
- │ │ │ │ └── downloads.py
229
- │ │ │ ├── editing
230
- │ │ │ ├── editing.py
231
- │ │ │ │ └── child
232
- │ │ │ ├── audio_effects.py
233
- │ │ │ │ └── quirk.py
234
- │ │ │ ├── extra
235
- │ │ │ │ ├── extra.py
236
- │ │ │ │ └── child
237
- │ │ │ │ ├── convert_model.py
238
- │ │ │ ├── f0_extract.py
239
- │ │ │ │ ├── fushion.py
240
- │ │ │ │ ├── read_model.py
241
- │ │ │ │ ├── report_bugs.py
242
- │ │ │ │ └── settings.py
243
- │ │ │ ├── inference
244
- │ │ │ │ ├── inference.py
245
- │ │ │ │ └── child
246
- │ │ │ │ ├── convert.py
247
- │ │ │ │ ├── convert_tts.py
248
- │ │ │ │ ├── convert_with_whisper.py
249
- │ │ │ │ └── separate.py
250
- │ │ │ └── training
251
- │ │ │ ├── training.py
252
- │ │ │ └── child
253
- │ │ │ ├── create_dataset.py
254
- │ │ │ └── training.py
255
- │ │ ├── app.py
256
- │ │ ├── parser.py
257
- │ │ ├── run_tensorboard.py
258
- │ │ └── variables.py
259
- ├── configs
260
- │ │ ├── config.json
261
- │ │ ├── config.py
262
- │ │ ├── v1
263
- │ │ │ ├── 32000.json
264
- │ │ ├── 40000.json
265
- │ │ │ └── 48000.json
266
- │ │ └── v2
267
- │ │ ├── 32000.json
268
- ├── 40000.json
269
- │ │ └── 48000.json
270
- │ ├── inference
271
- │ │ ├── audio_effects.py
272
- │ │ ├── create_dataset.py
273
- │ │ ├── create_index.py
274
- │ │ ├── separator_music.py
275
- │ │ ├── extracting
276
- │ │├── embedding.py
277
- │ │├── extract.py
278
- │ │ │ ├── feature.py
279
- │ │ ├── preparing_files.py
280
- │ │ ├── rms.py
281
- │ │ │ └── setup_path.py
282
- │ │ ├── training
283
- │ │ ├── train.py
284
- │ │ ├── data_utils.py
285
- │ │ │ ├── losses.py
286
- │ │ │ ├── mel_processing.py
287
- │ │ │ └── utils.py
288
- │ │ ├── conversion
289
- │ │ │ ├── convert.py
290
- │ │ │ ├── pipeline.py
291
- │ │ │ └── utils.py
292
- │ │ └── preprocess
293
- │ │ ├── preprocess.py
294
- │ │ └── slicer2.py
295
- │ ├── library
296
- │ │ ├── utils.py
297
- │ │ ├── opencl.py
298
- │ │ ├── algorithm
299
- │ │ │ ├── attentions.py
300
- │ │ │ ├── commons.py
301
- │ │ │ ├── discriminators.py
302
- │ │├── encoders.py
303
- │ │ │ ├── modules.py
304
- │ │ ├── normalization.py
305
- │ │ ├── onnx_export.py
306
- │ │ ├── residuals.py
307
- │ │ ├── stftpitchshift.py
308
- │ │ │ └── synthesizers.py
309
- │ │ ├── architectures
310
- │ │ │ ├── demucs_separator.py
311
- │ │ │ ├── fairseq.py
312
- │ │ │ └── mdx_separator.py
313
- │ │ ├── generators
314
- │ │ │ ├── hifigan.py
315
- │ │ │ ├── mrf_hifigan.py
316
- │ │ │ ├── nsf_hifigan.py
317
- │ │ │ └── refinegan.py
318
- │ │ ├── predictors
319
- │ │ │ ├── CREPE
320
- │ │ │ ├── CREPE.py
321
- │ │ │ │ ├── filter.py
322
- │ │ │ │ └── model.py
323
- │ │ │ ├── FCN
324
- │ │ │ ├── FCN.py
325
- │ │ │ ├── convert.py
326
- │ │ │ └── model.py
327
- │ │ ├── FCPE
328
- │ │ │ ├── attentions.py
329
- │ │ │ │ ├── encoder.py
330
- │ │ │ │ ├── FCPE.py
331
- │ │ │ │ ├── stft.py
332
- │ │ │ ├── utils.py
333
- │ │ │ │ └── wav2mel.py
334
- │ │ │ ├── RMVPE
335
- │ │ │ │ ├── RMVPE.py
336
- │ │ │ ├── deepunet.py
337
- │ │ │ │ ├── e2e.py
338
- │ │ │ │ └── mel.py
339
- │ │ │ ├── WORLD
340
- │ │ │ │ ├── WORLD.py
341
- │ │ │ │ └── SWIPE.py
342
- │ │ │ └── Generator.py
343
- │ │ ├── speaker_diarization
344
- │ │ │ ├── audio.py
345
- │ │ │ ├── ECAPA_TDNN.py
346
- │ │ │ ├── embedding.py
347
- │ │ │ ├── encoder.py
348
- │ │ │ ├── features.py
349
- │ │ │ ├── parameter_transfer.py
350
- │ │ │ ├── segment.py
351
- │ │ │ ├── speechbrain.py
352
- │ │ │ └── whisper.py
353
- │ │ └── uvr5_lib
354
- │ │ ├── common_separator.py
355
- │ │ ├── separator.py
356
- │ │ ├── spec_utils.py
357
- │ │ └── demucs
358
- │ │ ├── apply.py
359
- │ │ ├── demucs.py
360
- │ │ ├── hdemucs.py
361
- │ │ ├── htdemucs.py
362
- │ │ ├── states.py
363
- │ │ └── utils.py
364
- └── tools
365
- │ ├── gdown.py
366
- ├── huggingface.py
367
- ├── mediafire.py
368
- ├── meganz.py
369
- ├── noisereduce.py
370
- └── pixeldrain.py
371
- ├── docker-compose-amd.yaml
372
- ├── docker-compose-cpu.yaml
373
- ├── docker-compose-cuda118.yaml
374
- ├── docker-compose-cuda128.yaml
375
- ├── Dockerfile
376
- ├── Dockerfile.amd
377
- ├── Dockerfile.cuda118
378
- ├── Dockerfile.cuda128
379
- ├── LICENSE
380
- ├── README.md
381
- ├── requirements.txt
382
- ├── run_app.bat
383
- └── tensorboard.bat
384
- </pre>
385
-
386
- # LƯU Ý
387
-
388
- - **Hiện tại các bộ mã hóa mới như MRF HIFIGAN vẫn chưa đầy đủ các bộ huấn luyện trước**
389
- - **Bộ mã hóa MRF HIFIGAN và REFINEGAN không hỗ trợ huấn luyện khi không không huấn luyện cao độ**
390
- - **Các mô hình trong kho lưu trữ Vietnamese-RVC được thu thập rải rác trên AI Hub, HuggingFace và các các kho lưu trữ khác. Có thể mang các giấy phép bản quyền khác nhau**
391
-
392
- # Tuyên bố miễn trừ trách nhiệm
393
-
394
- - **Dự án Vietnamese-RVC được phát triển với mục đích nghiên cứu, học tập và giải trí cá nhân. Tôi không khuyến khích cũng như không chịu trách nhiệm đối với bất kỳ hành vi lạm dụng công nghệ chuyển đổi giọng nói vì mục đích lừa đảo, giả mạo danh tính, hoặc vi phạm quyền riêng tư, bản quyền của bất kỳ cá nhân hay tổ chức nào.**
395
-
396
- - **Người dùng cần tự chịu trách nhiệm với hành vi sử dụng phần mềm này và cam kết tuân thủ pháp luật hiện hành tại quốc gia nơi họ sinh sống hoặc hoạt động.**
397
-
398
- - **Việc sử dụng giọng nói của người nổi tiếng, người thật hoặc nhân vật công chúng phải có sự cho phép hoặc đảm bảo không vi phạm pháp luật, đạo đức và quyền lợi của các bên liên quan.**
399
-
400
- - **Tác giả của dự án không chịu trách nhiệm pháp lý đối với bất kỳ hậu quả nào phát sinh từ việc sử dụng phần mềm này.**
401
-
402
- # Điều khoản sử dụng
403
-
404
- - Bạn phải đảm bảo rằng các nội dung âm thanh bạn tải lên và chuyển đổi qua dự án này không vi phạm quyền sở hữu trí tuệ của bên thứ ba.
405
-
406
- - Không được phép sử dụng dự án này cho bất kỳ hoạt động nào bất hợp pháp, bao gồm nhưng không giới hạn ở việc sử dụng để lừa đảo, quấy rối, hay gây tổn hại đến người khác.
407
-
408
- - Bạn chịu trách nhiệm hoàn toàn đối với bất kỳ thiệt hại nào phát sinh từ việc sử dụng sản phẩm không đúng cách.
409
-
410
- - Tôi sẽ không chịu trách nhiệm với bất kỳ thiệt hại trực tiếp hoặc gián tiếp nào phát sinh từ việc sử dụng dự án này.
411
-
412
- # Dự án này được xây dựng dựa trên các dự án như sau
413
-
414
- | Tác Phẩm | Tác Giả | Giấy Phép |
415
- |--------------------------------------------------------------------------------------------------------------------------------|-------------------------|-------------|
416
- | **[Applio](https://github.com/IAHispano/Applio/tree/main)** | IAHispano | MIT License |
417
- | **[Python-audio-separator](https://github.com/nomadkaraoke/python-audio-separator/tree/main)** | Nomad Karaoke | MIT License |
418
- | **[Retrieval-based-Voice-Conversion-WebUI](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/tree/main)** | RVC Project | MIT License |
419
- | **[RVC-ONNX-INFER-BY-Anh](https://github.com/PhamHuynhAnh16/RVC_Onnx_Infer)** | Phạm Huỳnh Anh | MIT License |
420
- | **[Torch-Onnx-Crepe-By-Anh](https://github.com/PhamHuynhAnh16/TORCH-ONNX-CREPE)** | Phạm Huỳnh Anh | MIT License |
421
- | **[Hubert-No-Fairseq](https://github.com/PhamHuynhAnh16/hubert-no-fairseq)** | Phạm Huỳnh Anh | MIT License |
422
- | **[Local-attention](https://github.com/lucidrains/local-attention)** | Phil Wang | MIT License |
423
- | **[TorchFcpe](https://github.com/CNChTu/FCPE/tree/main)** | CN_ChiTu | MIT License |
424
- | **[FcpeONNX](https://github.com/deiteris/voice-changer/blob/master-custom/server/utils/fcpe_onnx.py)** | Yury | MIT License |
425
- | **[ContentVec](https://github.com/auspicious3000/contentvec)** | Kaizhi Qian | MIT License |
426
- | **[Mediafiredl](https://github.com/Gann4Life/mediafiredl)** | Santiago Ariel Mansilla | MIT License |
427
- | **[Noisereduce](https://github.com/timsainb/noisereduce)** | Tim Sainburg | MIT License |
428
- | **[World.py-By-Anh](https://github.com/PhamHuynhAnh16/world.py)** | Phạm Huỳnh Anh | MIT License |
429
- | **[Mega.py](https://github.com/3v1n0/mega.py)** | Marco Trevisan | No License |
430
- | **[Gdown](https://github.com/wkentaro/gdown)** | Kentaro Wada | MIT License |
431
- | **[Whisper](https://github.com/openai/whisper)** | OpenAI | MIT License |
432
- | **[PyannoteAudio](https://github.com/pyannote/pyannote-audio)** | pyannote | MIT License |
433
- | **[AudioEditingCode](https://github.com/HilaManor/AudioEditingCode)** | Hila Manor | MIT License |
434
- | **[StftPitchShift](https://github.com/jurihock/stftPitchShift)** | Jürgen Hock | MIT License |
435
- | **[Codename-RVC-Fork-3](https://github.com/codename0og/codename-rvc-fork-3)** | Codename;0 | MIT License |
436
- | **[Penn](https://github.com/interactiveaudiolab/penn)** | Interactive Audio Lab | MIT License |
437
-
438
- # Kho hình của công cụ tìm kiếm mô hình
439
-
440
- - **[VOICE-MODELS.COM](https://voice-models.com/)**
441
-
442
- # Các phương pháp trích xuất F0 trong RVC
443
-
444
- Tài liệu này trình bày chi tiết các phương pháp trích xuất cao độ được sử dụng, thông tin về ưu, nhược điểm, sức mạnh và độ tin cậy của từng phương pháp theo trải nghiệm cá nhân.
445
-
446
- | Phương pháp | Loại | Ưu điểm | Hạn chế | Sức mạnh | Độ tin cậy |
447
- |--------------------|----------------|---------------------------|------------------------------|--------------------|--------------------|
448
- | pm | Praat | Nhanh | Kém chính xác | Thấp | Thấp |
449
- | dio | PYWORLD | Thích hợp với Rap | Kém chính xác với tần số cao | Trung bình | Trung bình |
450
- | harvest | PYWORLD | Chính xác hơn DIO | Xử lý chậm hơn | Cao | Rất cao |
451
- | crepe | Deep Learning | Chính xác cao | Yêu cầu GPU | Rất cao | Rất cao |
452
- | mangio-crepe | crepe nofilter | Tối ưu hóa cho RVC | Đôi khi kém crepe gốc | Trung bình đến cao | Trung bình đến cao |
453
- | fcpe | Deep Learning | Chính xác, thời gian thực | Cần GPU mạnh | Khá | Trung bình |
454
- | fcpe-legacy | Old | Chính xác, thời gian thực | Cũ hơn | Khá | Trung bình |
455
- | rmvpe | Deep Learning | Hiệu quả với giọng hát | Tốn tài nguyên | Rất cao | Xuất sắc |
456
- | rmvpe-legacy | Old | Tính toán với Fmin-max | Cũ hơn | Cao | Khá |
457
- | yin | Librosa | Đơn giản, hiệu quả | Dễ lỗi bội | Trung bình | Thấp |
458
- | pyin | Librosa | Ổn định hơn YIN | Tính toán phức tạp hơn | Khá | Khá |
459
- | swipe | WORLD | Độ chính xác cao | Nhạy cảm với nhiễu | Cao | Khá |
460
- | piptrack | Librosa | Nhanh | Kém chính xác | Thấp | Thấp |
461
- | fcn | Deep Learning | Không | F0 Thấp | Không | Không |
462
-
463
- # Báo cáo lỗi
464
-
465
- - **Với trường hợp gặp lỗi khi sử dụng mã nguồn này tôi thực sự xin lỗi bạn vì trải nghiệm không tốt này, bạn có thể gửi báo cáo lỗi thông qua cách phía dưới**
466
- - **Bạn thể báo cáo lỗi cho tôi thông qua hệ thống báo cáo lỗi webhook trong giao diện sử dụng**
467
- - **Với trường hợp hệ thống báo cáo lỗi không hoạt động bạn có thể báo cáo lỗi cho tôi thông qua Discord `pham_huynh_anh` Hoặc [ISSUE](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/issues)**
468
-
469
- # ☎️ Liên hệ tôi
 
 
 
 
 
 
 
 
 
470
  - Discord: **pham_huynh_anh**
 
1
+ ---
2
+ license: mit
3
+ title: RVC-GUI
4
+ sdk: gradio
5
+ emoji: 🌍
6
+ colorFrom: blue
7
+ colorTo: blue
8
+ pinned: true
9
+ ---
10
+ <div align="center">
11
+ <img alt="LOGO" src="assets/ico.png" width="300" height="300" />
12
+
13
+ # Vietnamese RVC BY ANH
14
+ Công cụ chuyển đổi giọng nói chất lượng và hiệu suất cao đơn giản.
15
+
16
+ [![Vietnamese RVC](https://img.shields.io/badge/GitHub-100000?style=for-the-badge&logo=github&logoColor=white)](https://github.com/PhamHuynhAnh16/Vietnamese-RVC)
17
+ [![Open In Colab](https://img.shields.io/badge/Colab-F9AB00?style=for-the-badge&logo=googlecolab&color=525252)](https://colab.research.google.com/github/PhamHuynhAnh16/Vietnamese-RVC-ipynb/blob/main/Vietnamese-RVC.ipynb)
18
+ [![Licence](https://img.shields.io/badge/LICENSE-MIT-green?style=for-the-badge)](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/blob/main/LICENSE)
19
+
20
+ </div>
21
+
22
+ <div align="center">
23
+
24
+ [![Hugging Face](https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-Spaces-blue)](https://huggingface.co/spaces/AnhP/RVC-GUI)
25
+ [![Hugging Face](https://img.shields.io/badge/%F0%9F%A4%97-Models-blue)](https://huggingface.co/AnhP/Vietnamese-RVC-Project)
26
+
27
+ </div>
28
+
29
+ # Mô tả
30
+
31
+ Dự án này là một công cụ chuyển đổi giọng nói đơn giản, dễ sử dụng. Với mục tiêu tạo ra các sản phẩm chuyển đổi giọng nói chất lượng cao và hiệu suất tối ưu, dự án cho phép người dùng thay đổi giọng nói một cách mượt mà, tự nhiên.
32
+
33
+ # Các tính năng của dự án
34
+
35
+ - Tách nhạc (MDX-Net/Demucs)
36
+
37
+ - Chuyển đổi giọng nói (Chuyển đổi tệp / Chuyển đổi hàng loạt / Chuyển đổi với Whisper / Chuyển đổi văn bản)
38
+
39
+ - Áp dụng hiệu ứng cho âm thanh
40
+
41
+ - Tạo dữ liệu huấn luyện (Từ đường dẫn liên kết)
42
+
43
+ - Huấn luyện mô hình (v1/v2, bộ mã hóa chất lượng cao, huấn luyện năng lượng)
44
+
45
+ - Dung hợp mô hình
46
+
47
+ - Đọc thông tin mô hình
48
+
49
+ - Xuất mô hình sang ONNX
50
+
51
+ - Tải xuống từ kho mô hình có sẳn
52
+
53
+ - Tìm kiếm mô hình từ web
54
+
55
+ - Trích xuất cao độ
56
+
57
+ - Hỗ trợ suy luận chuyển đổi âm thanh bằng hình ONNX
58
+
59
+ - Mô hình ONNX RVC cũng sẽ hỗ trợ chỉ mục để suy luận
60
+
61
+ **Phương thức trích xuất cao độ: `pm-ac, pm-cc, pm-shs, dio, mangio-crepe-tiny, mangio-crepe-small, mangio-crepe-medium, mangio-crepe-large, mangio-crepe-full, crepe-tiny, crepe-small, crepe-medium, crepe-large, crepe-full, fcpe, fcpe-legacy, rmvpe, rmvpe-legacy, harvest, yin, pyin, swipe, piptrack, fcn`**
62
+
63
+ **Các mô hình trích xuất nhúng: `contentvec_base, hubert_base, vietnamese_hubert_base, japanese_hubert_base, korean_hubert_base, chinese_hubert_base, portuguese_hubert_base, spin`**
64
+
65
+ - **Các mô hình trích xuất cao độ đều có phiên bản tăng tốc ONNX trừ các phương thức hoạt động bằng trình bao bọc.**
66
+ - **Các hình trích xuất đều thể kết hợp với nhau để tạo ra cảm giác mới mẻ, ví dụ: `hybrid[rmvpe+harvest]`.**
67
+ - **Các mô hình trích xuất nhúng có sẳn các chế độ nhúng như: fairseq, onnx, transformers, spin.**
68
+
69
+ # Hướng dẫn sử dụng
70
+
71
+ **Sẽ nếu tôi thực sự rảnh...**
72
+
73
+ # Cài đặt
74
+
75
+ Bước 1: Cài đặt các phần phụ trợ cần thiết
76
+
77
+ - Cài đặt Python từ trang chủ: **[PYTHON](https://www.python.org/ftp/python/3.11.8/python-3.11.8-amd64.exe)** (Dự án đã được kiểm tra trên Python 3.10.x và 3.11.x)
78
+ - Cài đặt FFmpeg từ nguồn và thêm vào PATH hệ thống: **[FFMPEG](https://github.com/BtbN/FFmpeg-Builds/releases)**
79
+
80
+ Bước 2: Cài đặt dự án (Dùng Git hoặc đơn giản là tải trên github)
81
+
82
+ Sử dụng đối với Git:
83
+ - git clone https://github.com/PhamHuynhAnh16/Vietnamese-RVC.git
84
+ - cd Vietnamese-RVC
85
+
86
+ Cài đặt bằng github:
87
+ - Vào https://github.com/PhamHuynhAnh16/Vietnamese-RVC
88
+ - Nhấn vào `<> Code` màu xanh lá chọn `Download ZIP`
89
+ - Giải nén `Vietnamese-RVC-main.zip`
90
+ - Vào thư mục Vietnamese-RVC-main chọn vào thanh Path nhập `cmd` và nhấn Enter
91
+
92
+ Bước 3: Cài đặt thư viện cần thiết:
93
+
94
+ Nhập lệnh:
95
+ ```
96
+ python -m venv env
97
+ env\\Scripts\\activate
98
+ ```
99
+
100
+ Đối với CPU:
101
+ ```
102
+ python -m pip install -r requirements.txt
103
+ ```
104
+
105
+ Đối với CUDA (Có thể thay cu118 thành bản cu128 mới hơn nếu GPU hỗ trợ):
106
+ ```
107
+ python -m pip install torch torchaudio torchvision --index-url https://download.pytorch.org/whl/cu118
108
+ python -m pip install -r requirements.txt
109
+ ```
110
+
111
+ Đối với AMD:
112
+ ```
113
+ python -m pip install torch==2.6.0 torchaudio==2.6.0 torchvision
114
+ python -m pip install https://github.com/artyom-beilis/pytorch_dlprim/releases/download/0.2.0/pytorch_ocl-0.2.0+torch2.6-cp311-none-win_amd64.whl
115
+ python -m pip install onnxruntime-directml
116
+ python -m pip install -r requirements.txt
117
+ ```
118
+
119
+ Lưu ý đối với AMD:
120
+ - Chỉ cài đặt AMD trên python 3.11 DLPRIM không có bản cho python 3.10.
121
+ - Demucs thể gây quá tải tràn bộ nhớ đối với GPU (nếu cần sử dụng demucs hãy mở tệp config.json trong main\configs sửa đối số demucs_cpu_mode thành true).
122
+ - DDP không hỗ trợ huấn luyện đa GPU đối với OPENCL (AMD).
123
+ - Một số thuật toán khác phải chạy trên cpu nên thể hiệu suất của GPU thể không sử dụng hết.
124
+
125
+ # Sử dụng
126
+
127
+ **Sử dụng với Google Colab**
128
+ - Mở Google Colab: [Vietnamese-RVC](https://colab.research.google.com/github/PhamHuynhAnh16/Vietnamese-RVC-ipynb/blob/main/Vietnamese-RVC.ipynb)
129
+ - Bước 1: Chạy ô Cài đặt và đợi nó hoàn tất.
130
+ - Bước 2: Chạy ô Mở giao diện sử dụng (Khi này giao diện sẽ in ra 2 đường dẫn 1 là 0.0.0.0.7680 và 1 đường dẫn gradio có thể nhấp được, bạn chọn vào đường dẫn nhấp được và nó sẽ đưa bạn đến giao diện).
131
+
132
+ **Chạy tệp run_app để mở giao diện sử dụng, chạy tệp tensorboard để mở biểu đồ kiểm tra huấn luyện. (Lưu ý: không tắt Command Prompt hoặc Terminal)**
133
+ ```
134
+ run_app.bat / tensorboard.bat
135
+ ```
136
+
137
+ **Khởi động giao diện sử dụng. (Thêm `--allow_all_disk` vào lệnh để cho phép gradio truy cập tệp ngoài)**
138
+ ```
139
+ env\\Scripts\\python.exe main\\app\\app.py --open
140
+ ```
141
+
142
+ **Với trường hợp bạn sử dụng Tensorboard để kiểm tra huấn luyện**
143
+ ```
144
+ env\\Scripts\\python.exe main/app/run_tensorboard.py
145
+ ```
146
+
147
+ **Sử dụng bằng pháp**
148
+ ```
149
+ python main\\app\\parser.py --help
150
+ ```
151
+
152
+ # Cài đặt, sử dụng đơn giản
153
+
154
+ **Cài đặt phiên bản releases từ [Vietnamese_RVC](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/releases)**
155
+ - Chọn bản đúng với bạn và tải về máy.
156
+ - Giải nén dự án.
157
+ - Chạy tệp run_app.bat để mở giao diện hoạt động.
158
+
159
+ # Cấu trúc chính của mã nguồn:
160
+
161
+ <pre>
162
+ Vietnamese-RVC-main
163
+ ├── assets
164
+ │ ├── binary
165
+ │ │ ├── decrypt.bin
166
+ │ │ └── world.bin
167
+ ├── f0
168
+ │ ├── languages
169
+ │ │ ├── en-US.json
170
+ │ │ └── vi-VN.json
171
+ │ ├── logs
172
+ │ │ └── mute
173
+ │ │ ├── energy
174
+ │ │ │ └── mute.wav.npy
175
+ │ │ ├── f0
176
+ │ │ │ └── mute.wav.npy
177
+ │ │ ├── f0_voiced
178
+ │ │ │ └── mute.wav.npy
179
+ │ │ ├── sliced_audios
180
+ │ │ │ ├── mute32000.wav
181
+ │ │ │ ├── mute40000.wav
182
+ │ │ │ └── mute48000.wav
183
+ │ │ ├── sliced_audios_16k
184
+ │ │ └── mute.wav
185
+ │ │ ├── v1_extracted
186
+ │ │├── mute.npy
187
+ │ │├── mute_chinese.npy
188
+ │ │├── mute_japanese.npy
189
+ │ │├── mute_korean.npy
190
+ │ │├── mute_portuguese.npy
191
+ │ │ │ ├── mute_vietnamese.npy
192
+ │ │ └── mute_spin.npy
193
+ │ │ └── v2_extracted
194
+ │ │ ├── mute.npy
195
+ │ │ ├── mute_chinese.npy
196
+ │ │ ├── mute_japanese.npy
197
+ │ │ ├── mute_korean.npy
198
+ │ │ ├── mute_portuguese.npy
199
+ │ │ ├── mute_vietnamese.npy
200
+ │ │ └── mute_spin.npy
201
+ │ ├── models
202
+ │ │ ├── embedders
203
+ │ │ ├── predictors
204
+ │ │ ├── pretrained_custom
205
+ ├── pretrained_v1
206
+ ├── pretrained_v2
207
+ │ ├── speaker_diarization
208
+ │ │ │ ├── assets
209
+ │ │ │ │ ├── gpt2.tiktoken
210
+ │ │ │ │ ├── mel_filters.npz
211
+ │ │ │ └── multilingual.tiktoken
212
+ │ │ │ └── models
213
+ │ │ └── uvr5
214
+ │ ├── presets
215
+ │ ├── weights
216
+ └── ico.png
217
+ ├── audios
218
+ ├── dataset
219
+ ├── main
220
+ │ ├── app
221
+ │ │ ├── core
222
+ │ │ │ ├── downloads.py
223
+ │ │ ��� ├── editing.py
224
+ │ │ │ ├── f0_extract.py
225
+ │ │ │ ├── inference.py
226
+ │ │ ├── model_utils.py
227
+ │ │ │ ├── presets.py
228
+ │ │ │ ├── process.py
229
+ │ │ │ ├── restart.py
230
+ │ │ │ ├── separate.py
231
+ │ │ │ ├── training.py
232
+ │ │ │ ├── tts.py
233
+ │ │ │ ├── ui.py
234
+ │ │ │ └── utils.py
235
+ │ │ ├── tabs
236
+ │ │ │ ├── downloads
237
+ │ │ │ │ └── downloads.py
238
+ │ │ │ ├── editing
239
+ │ │ │ │ ├── editing.py
240
+ │ │ │ │ └── child
241
+ │ │ │ │ ├── audio_effects.py
242
+ │ │ │ │ └── quirk.py
243
+ │ │ │ ├── extra
244
+ │ │ │ │ ├── extra.py
245
+ │ │ │ │ └── child
246
+ │ │ │ │ ├── convert_model.py
247
+ │ │ │ │ ├── f0_extract.py
248
+ │ │ │ │ ├── fushion.py
249
+ │ │ │ │ ├── read_model.py
250
+ │ │ │ │ ├── report_bugs.py
251
+ │ │ │ └── settings.py
252
+ │ │ │ ├── inference
253
+ │ │ │├── inference.py
254
+ │ │ │└── child
255
+ │ │ │ │ ├── convert.py
256
+ │ │ │ │ ├── convert_tts.py
257
+ │ │ │ │ ├── convert_with_whisper.py
258
+ │ │ │ │ └── separate.py
259
+ │ │ └── training
260
+ │ │ ├── training.py
261
+ │ │ │ └── child
262
+ │ │ ├── create_dataset.py
263
+ │ │ │ └── training.py
264
+ │ │ ├── app.py
265
+ │ │ ├── parser.py
266
+ │ │ ├── run_tensorboard.py
267
+ │ │ └── variables.py
268
+ │ ├── configs
269
+ │ │ ├── config.json
270
+ ├── config.py
271
+ │ │ ├── v1
272
+ │ │ ├── 32000.json
273
+ │ │ ├── 40000.json
274
+ │ │ │ └── 48000.json
275
+ │ │ └── v2
276
+ │ │ ├── 32000.json
277
+ │ │ ├── 40000.json
278
+ │ │ └── 48000.json
279
+ │ ├── inference
280
+ │ │ ├── audio_effects.py
281
+ │ │ ├── create_dataset.py
282
+ │ │ ├── create_index.py
283
+ │ │ ├── separator_music.py
284
+ │ │ ├── extracting
285
+ │ │ │ ├── embedding.py
286
+ │ │ │ ├── extract.py
287
+ │ │ │ ├── feature.py
288
+ │ │ ├── preparing_files.py
289
+ │ │ │ ├── rms.py
290
+ │ │ │ └── setup_path.py
291
+ │ │ ├── training
292
+ │ │ │ ├── train.py
293
+ │ │├── data_utils.py
294
+ │ │ │ ├── losses.py
295
+ │ │ ├── mel_processing.py
296
+ │ │ │ └── utils.py
297
+ │ │ ├── conversion
298
+ │ │ ├── convert.py
299
+ │ │ │ ├── pipeline.py
300
+ │ │ │ └── utils.py
301
+ │ │ └── preprocess
302
+ │ │ ├── preprocess.py
303
+ │ │ └── slicer2.py
304
+ │ ├── library
305
+ │ │ ├── utils.py
306
+ │ │ ├── opencl.py
307
+ │ │ ├── algorithm
308
+ │ │ │ ├── attentions.py
309
+ │ │ ├── commons.py
310
+ │ │ │ ├── discriminators.py
311
+ │ │ │ ├── encoders.py
312
+ │ │ │ ├── modules.py
313
+ │ │ ├── normalization.py
314
+ │ │ │ ├── onnx_export.py
315
+ │ │ │ ├── residuals.py
316
+ │ │ │ ├── stftpitchshift.py
317
+ │ │ │ └── synthesizers.py
318
+ │ │ ├── architectures
319
+ │ │ │ ├── demucs_separator.py
320
+ │ │ │ ├── fairseq.py
321
+ │ │ │ └── mdx_separator.py
322
+ │ │ ├── generators
323
+ │ │ │ ├── hifigan.py
324
+ │ │ │ ├── mrf_hifigan.py
325
+ │ │ │ ├── nsf_hifigan.py
326
+ │ │ │ └── refinegan.py
327
+ │ │ ├── predictors
328
+ │ │ │ ├── CREPE
329
+ │ │ │ │ ├── CREPE.py
330
+ │ │ │ │ ├── filter.py
331
+ │ │ │ │ └── model.py
332
+ │ │ │ ├── FCN
333
+ │ │ │ │ ├── FCN.py
334
+ │ │ │ ├── convert.py
335
+ │ │ │ │ └── model.py
336
+ │ │ │ ├── FCPE
337
+ │ │ │ │ ├── attentions.py
338
+ │ │ │ │ ├── encoder.py
339
+ │ │ │ ├── FCPE.py
340
+ │ │ │ │ ├── stft.py
341
+ │ │ │ │ ├── utils.py
342
+ │ │ │ └── wav2mel.py
343
+ │ │ ├── RMVPE
344
+ │ │ │ ├── RMVPE.py
345
+ │ │ │ ├── deepunet.py
346
+ │ │ │ ├── e2e.py
347
+ │ │ │ │ └─�� mel.py
348
+ │ │ │ ├── WORLD
349
+ │ │ │ ├── WORLD.py
350
+ │ │ │ │ └── SWIPE.py
351
+ │ │ │ └── Generator.py
352
+ │ │ ├── speaker_diarization
353
+ │ │ │ ├── audio.py
354
+ │ │├── ECAPA_TDNN.py
355
+ │ │├── embedding.py
356
+ │ │├── encoder.py
357
+ │ │ │ ├── features.py
358
+ │ │├── parameter_transfer.py
359
+ │ │├── segment.py
360
+ │ │├── speechbrain.py
361
+ │ │ │ └── whisper.py
362
+ │ │ └── uvr5_lib
363
+ │ │ ├── common_separator.py
364
+ │ ├── separator.py
365
+ ├── spec_utils.py
366
+ └── demucs
367
+ ├── apply.py
368
+ ├── demucs.py
369
+ ├── hdemucs.py
370
+ │ ├── htdemucs.py
371
+ │ │ ├── states.py
372
+ │ │ └── utils.py
373
+ │ └── tools
374
+ ├── gdown.py
375
+ ├── huggingface.py
376
+ ├── mediafire.py
377
+ ├── meganz.py
378
+ ├── noisereduce.py
379
+ │ └── pixeldrain.py
380
+ ├── docker-compose-amd.yaml
381
+ ├── docker-compose-cpu.yaml
382
+ ├── docker-compose-cuda118.yaml
383
+ ├── docker-compose-cuda128.yaml
384
+ ├── Dockerfile
385
+ ├── Dockerfile.amd
386
+ ├── Dockerfile.cuda118
387
+ ├── Dockerfile.cuda128
388
+ ├── LICENSE
389
+ ├── README.md
390
+ ├── requirements.txt
391
+ ├── run_app.bat
392
+ └── tensorboard.bat
393
+ </pre>
394
+
395
+ # LƯU Ý
396
+
397
+ - **Hiện tại các bộ mã hóa mới như MRF HIFIGAN vẫn chưa đầy đủ các bộ huấn luyện trước**
398
+ - **Bộ hóa MRF HIFIGAN REFINEGAN không hỗ trợ huấn luyện khi không không huấn luyện cao độ**
399
+ - **Các mô hình trong kho lưu trữ Vietnamese-RVC được thu thập rải rác trên AI Hub, HuggingFace và các các kho lưu trữ khác. Có thể mang các giấy phép bản quyền khác nhau**
400
+
401
+ # Tuyên bố miễn trừ trách nhiệm
402
+
403
+ - **Dự án Vietnamese-RVC được phát triển với mục đích nghiên cứu, học tập và giải trí cá nhân. Tôi không khuyến khích cũng như không chịu trách nhiệm đối với bất kỳ hành vi lạm dụng công nghệ chuyển đổi giọng nói vì mục đích lừa đảo, giả mạo danh tính, hoặc vi phạm quyền riêng tư, bản quyền của bất kỳ cá nhân hay tổ chức nào.**
404
+
405
+ - **Người dùng cần tự chịu trách nhiệm với hành vi sử dụng phần mềm này và cam kết tuân thủ pháp luật hiện hành tại quốc gia nơi họ sinh sống hoặc hoạt động.**
406
+
407
+ - **Việc sử dụng giọng nói của người nổi tiếng, người thật hoặc nhân vật công chúng phải có sự cho phép hoặc đảm bảo không vi phạm pháp luật, đạo đức và quyền lợi của các bên liên quan.**
408
+
409
+ - **Tác giả của dự án không chịu trách nhiệm pháp lý đối với bất kỳ hậu quả nào phát sinh từ việc sử dụng phần mềm này.**
410
+
411
+ # Điều khoản sử dụng
412
+
413
+ - Bạn phải đảm bảo rằng các nội dung âm thanh bạn tải lên và chuyển đổi qua dự án này không vi phạm quyền sở hữu trí tuệ của bên thứ ba.
414
+
415
+ - Không được phép sử dụng dự án này cho bất kỳ hoạt động nào bất hợp pháp, bao gồm nhưng không giới hạn ở việc sử dụng để lừa đảo, quấy rối, hay gây tổn hại đến người khác.
416
+
417
+ - Bạn chịu trách nhiệm hoàn toàn đối với bất kỳ thiệt hại nào phát sinh từ việc sử dụng sản phẩm không đúng cách.
418
+
419
+ - Tôi sẽ không chịu trách nhiệm với bất kỳ thiệt hại trực tiếp hoặc gián tiếp nào phát sinh từ việc sử dụng dự án này.
420
+
421
+ # Dự án này được xây dựng dựa trên các dự án như sau
422
+
423
+ | Tác Phẩm | Tác Giả | Giấy Phép |
424
+ |--------------------------------------------------------------------------------------------------------------------------------|-------------------------|-------------|
425
+ | **[Applio](https://github.com/IAHispano/Applio/tree/main)** | IAHispano | MIT License |
426
+ | **[Python-audio-separator](https://github.com/nomadkaraoke/python-audio-separator/tree/main)** | Nomad Karaoke | MIT License |
427
+ | **[Retrieval-based-Voice-Conversion-WebUI](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/tree/main)** | RVC Project | MIT License |
428
+ | **[RVC-ONNX-INFER-BY-Anh](https://github.com/PhamHuynhAnh16/RVC_Onnx_Infer)** | Phạm Huỳnh Anh | MIT License |
429
+ | **[Torch-Onnx-Crepe-By-Anh](https://github.com/PhamHuynhAnh16/TORCH-ONNX-CREPE)** | Phạm Huỳnh Anh | MIT License |
430
+ | **[Hubert-No-Fairseq](https://github.com/PhamHuynhAnh16/hubert-no-fairseq)** | Phạm Huỳnh Anh | MIT License |
431
+ | **[Local-attention](https://github.com/lucidrains/local-attention)** | Phil Wang | MIT License |
432
+ | **[TorchFcpe](https://github.com/CNChTu/FCPE/tree/main)** | CN_ChiTu | MIT License |
433
+ | **[FcpeONNX](https://github.com/deiteris/voice-changer/blob/master-custom/server/utils/fcpe_onnx.py)** | Yury | MIT License |
434
+ | **[ContentVec](https://github.com/auspicious3000/contentvec)** | Kaizhi Qian | MIT License |
435
+ | **[Mediafiredl](https://github.com/Gann4Life/mediafiredl)** | Santiago Ariel Mansilla | MIT License |
436
+ | **[Noisereduce](https://github.com/timsainb/noisereduce)** | Tim Sainburg | MIT License |
437
+ | **[World.py-By-Anh](https://github.com/PhamHuynhAnh16/world.py)** | Phạm Huỳnh Anh | MIT License |
438
+ | **[Mega.py](https://github.com/3v1n0/mega.py)** | Marco Trevisan | No License |
439
+ | **[Gdown](https://github.com/wkentaro/gdown)** | Kentaro Wada | MIT License |
440
+ | **[Whisper](https://github.com/openai/whisper)** | OpenAI | MIT License |
441
+ | **[PyannoteAudio](https://github.com/pyannote/pyannote-audio)** | pyannote | MIT License |
442
+ | **[AudioEditingCode](https://github.com/HilaManor/AudioEditingCode)** | Hila Manor | MIT License |
443
+ | **[StftPitchShift](https://github.com/jurihock/stftPitchShift)** | Jürgen Hock | MIT License |
444
+ | **[Codename-RVC-Fork-3](https://github.com/codename0og/codename-rvc-fork-3)** | Codename;0 | MIT License |
445
+ | **[Penn](https://github.com/interactiveaudiolab/penn)** | Interactive Audio Lab | MIT License |
446
+
447
+ # Kho mô hình của công cụ tìm kiếm mô hình
448
+
449
+ - **[VOICE-MODELS.COM](https://voice-models.com/)**
450
+
451
+ # Các phương pháp trích xuất F0 trong RVC
452
+
453
+ Tài liệu này trình bày chi tiết các phương pháp trích xuất cao độ được sử dụng, thông tin về ưu, nhược điểm, sức mạnh độ tin cậy của từng phương pháp theo trải nghiệm cá nhân.
454
+
455
+ | Phương pháp | Loại | Ưu điểm | Hạn chế | Sức mạnh | Độ tin cậy |
456
+ |--------------------|----------------|---------------------------|------------------------------|--------------------|--------------------|
457
+ | pm | Praat | Nhanh | Kém chính xác | Thấp | Thấp |
458
+ | dio | PYWORLD | Thích hợp với Rap | Kém chính xác với tần số cao | Trung bình | Trung bình |
459
+ | harvest | PYWORLD | Chính xác hơn DIO | Xử chậm hơn | Cao | Rất cao |
460
+ | crepe | Deep Learning | Chính xác cao | Yêu cầu GPU | Rất cao | Rất cao |
461
+ | mangio-crepe | crepe nofilter | Tối ưu hóa cho RVC | Đôi khi kém crepe gốc | Trung bình đến cao | Trung bình đến cao |
462
+ | fcpe | Deep Learning | Chính xác, thời gian thực | Cần GPU mạnh | Khá | Trung bình |
463
+ | fcpe-legacy | Old | Chính xác, thời gian thực | Cũ hơn | Khá | Trung bình |
464
+ | rmvpe | Deep Learning | Hiệu quả với giọng hát | Tốn tài nguyên | Rất cao | Xuất sắc |
465
+ | rmvpe-legacy | Old | Tính toán với Fmin-max | hơn | Cao | Khá |
466
+ | yin | Librosa | Đơn giản, hiệu quả | Dễ lỗi bội | Trung bình | Thấp |
467
+ | pyin | Librosa | Ổn định hơn YIN | Tính toán phức tạp hơn | Khá | Khá |
468
+ | swipe | WORLD | Độ chính xác cao | Nhạy cảm với nhiễu | Cao | Khá |
469
+ | piptrack | Librosa | Nhanh | Kém chính xác | Thấp | Thấp |
470
+ | fcn | Deep Learning | Không Rõ | F0 Thấp | Không Rõ | Không Rõ |
471
+
472
+ # Báo cáo lỗi
473
+
474
+ - **Với trường hợp gặp lỗi khi sử dụng mã nguồn này tôi thực sự xin lỗi bạn vì trải nghiệm không tốt này, bạn có thể gửi báo cáo lỗi thông qua cách phía dưới**
475
+ - **Bạn có thể báo cáo lỗi cho tôi thông qua hệ thống báo cáo lỗi webhook trong giao diện sử dụng**
476
+ - **Với trường hợp hệ thống báo cáo lỗi không hoạt động bạn có thể báo cáo lỗi cho tôi thông qua Discord `pham_huynh_anh` Hoặc [ISSUE](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/issues)**
477
+
478
+ # ☎️ Liên hệ tôi
479
  - Discord: **pham_huynh_anh**