license: mit
title: RVC-GUI
sdk: gradio
emoji: 🌍
colorFrom: blue
colorTo: blue
pinned: true
sdk_version: 5.35.0
short_description: RVC
app_file: main/app/app.py
startup_duration_timeout: 1h
Mô tả
Dự án này là một công cụ chuyển đổi giọng nói đơn giản, dễ sử dụng. Với mục tiêu tạo ra các sản phẩm chuyển đổi giọng nói chất lượng cao và hiệu suất tối ưu, dự án cho phép người dùng thay đổi giọng nói một cách mượt mà, tự nhiên.
Các tính năng của dự án
Tách nhạc (MDX-Net/Demucs)
Chuyển đổi giọng nói (Chuyển đổi tệp / Chuyển đổi hàng loạt / Chuyển đổi với Whisper / Chuyển đổi văn bản)
Áp dụng hiệu ứng cho âm thanh
Tạo dữ liệu huấn luyện (Từ đường dẫn liên kết)
Huấn luyện mô hình (v1/v2, bộ mã hóa chất lượng cao, huấn luyện năng lượng)
Dung hợp mô hình
Đọc thông tin mô hình
Xuất mô hình sang ONNX
Tải xuống từ kho mô hình có sẳn
Tìm kiếm mô hình từ web
Trích xuất cao độ
Hỗ trợ suy luận chuyển đổi âm thanh bằng mô hình ONNX
Mô hình ONNX RVC cũng sẽ hỗ trợ chỉ mục để suy luận
Phương thức trích xuất cao độ: pm-ac, pm-cc, pm-shs, dio, mangio-crepe-tiny, mangio-crepe-small, mangio-crepe-medium, mangio-crepe-large, mangio-crepe-full, crepe-tiny, crepe-small, crepe-medium, crepe-large, crepe-full, fcpe, fcpe-legacy, rmvpe, rmvpe-legacy, harvest, yin, pyin, swipe, piptrack, fcn
Các mô hình trích xuất nhúng: contentvec_base, hubert_base, vietnamese_hubert_base, japanese_hubert_base, korean_hubert_base, chinese_hubert_base, portuguese_hubert_base, spin
- Các mô hình trích xuất cao độ đều có phiên bản tăng tốc ONNX trừ các phương thức hoạt động bằng trình bao bọc.
- Các mô hình trích xuất đều có thể kết hợp với nhau để tạo ra cảm giác mới mẻ, ví dụ:
hybrid[rmvpe+harvest]
. - Các mô hình trích xuất nhúng có sẳn các chế độ nhúng như: fairseq, onnx, transformers, spin.
Hướng dẫn sử dụng
Sẽ có nếu tôi thực sự rảnh...
Cài đặt
Bước 1: Cài đặt các phần phụ trợ cần thiết
- Cài đặt Python từ trang chủ: PYTHON (Dự án đã được kiểm tra trên Python 3.10.x và 3.11.x)
- Cài đặt FFmpeg từ nguồn và thêm vào PATH hệ thống: FFMPEG
Bước 2: Cài đặt dự án (Dùng Git hoặc đơn giản là tải trên github)
Sử dụng đối với Git:
- git clone https://github.com/PhamHuynhAnh16/Vietnamese-RVC.git
- cd Vietnamese-RVC
Cài đặt bằng github:
- Vào https://github.com/PhamHuynhAnh16/Vietnamese-RVC
- Nhấn vào
<> Code
màu xanh lá chọnDownload ZIP
- Giải nén
Vietnamese-RVC-main.zip
- Vào thư mục Vietnamese-RVC-main chọn vào thanh Path nhập
cmd
và nhấn Enter
Bước 3: Cài đặt thư viện cần thiết:
Nhập lệnh:
python -m venv env
env\\Scripts\\activate
Đối với CPU:
python -m pip install -r requirements.txt
Đối với CUDA (Có thể thay cu118 thành bản cu128 mới hơn nếu GPU hỗ trợ):
python -m pip install torch torchaudio torchvision --index-url https://download.pytorch.org/whl/cu118
python -m pip install -r requirements.txt
Đối với AMD:
python -m pip install torch==2.6.0 torchaudio==2.6.0 torchvision
python -m pip install https://github.com/artyom-beilis/pytorch_dlprim/releases/download/0.2.0/pytorch_ocl-0.2.0+torch2.6-cp311-none-win_amd64.whl
python -m pip install onnxruntime-directml
python -m pip install -r requirements.txt
Lưu ý đối với AMD:
- Chỉ cài đặt AMD trên python 3.11 vì DLPRIM không có bản cho python 3.10.
- Demucs có thể gây quá tải và tràn bộ nhớ đối với GPU (nếu cần sử dụng demucs hãy mở tệp config.json trong main\configs sửa đối số demucs_cpu_mode thành true).
- DDP không hỗ trợ huấn luyện đa GPU đối với OPENCL (AMD).
- Một số thuật toán khác phải chạy trên cpu nên có thể hiệu suất của GPU có thể không sử dụng hết.
Sử dụng
Sử dụng với Google Colab
- Mở Google Colab: Vietnamese-RVC
- Bước 1: Chạy ô Cài đặt và đợi nó hoàn tất.
- Bước 2: Chạy ô Mở giao diện sử dụng (Khi này giao diện sẽ in ra 2 đường dẫn 1 là 0.0.0.0.7680 và 1 đường dẫn gradio có thể nhấp được, bạn chọn vào đường dẫn nhấp được và nó sẽ đưa bạn đến giao diện).
Chạy tệp run_app để mở giao diện sử dụng, chạy tệp tensorboard để mở biểu đồ kiểm tra huấn luyện. (Lưu ý: không tắt Command Prompt hoặc Terminal)
run_app.bat / tensorboard.bat
Khởi động giao diện sử dụng. (Thêm --allow_all_disk
vào lệnh để cho phép gradio truy cập tệp ngoài)
env\\Scripts\\python.exe main\\app\\app.py --open
Với trường hợp bạn sử dụng Tensorboard để kiểm tra huấn luyện
env\\Scripts\\python.exe main/app/run_tensorboard.py
Sử dụng bằng cú pháp
python main\\app\\parser.py --help
Cài đặt, sử dụng đơn giản
Cài đặt phiên bản releases từ Vietnamese_RVC
- Chọn bản đúng với bạn và tải về máy.
- Giải nén dự án.
- Chạy tệp run_app.bat để mở giao diện hoạt động.
Cấu trúc chính của mã nguồn:
Vietnamese-RVC-main ├── assets │ ├── binary │ │ ├── decrypt.bin │ │ └── world.bin │ ├── f0 │ ├── languages │ │ ├── en-US.json │ │ └── vi-VN.json │ ├── logs │ │ └── mute │ │ ├── energy │ │ │ └── mute.wav.npy │ │ ├── f0 │ │ │ └── mute.wav.npy │ │ ├── f0_voiced │ │ │ └── mute.wav.npy │ │ ├── sliced_audios │ │ │ ├── mute32000.wav │ │ │ ├── mute40000.wav │ │ │ └── mute48000.wav │ │ ├── sliced_audios_16k │ │ │ └── mute.wav │ │ ├── v1_extracted │ │ │ ├── mute.npy │ │ │ ├── mute_chinese.npy │ │ │ ├── mute_japanese.npy │ │ │ ├── mute_korean.npy │ │ │ ├── mute_portuguese.npy │ │ │ ├── mute_vietnamese.npy │ │ │ └── mute_spin.npy │ │ └── v2_extracted │ │ ├── mute.npy │ │ ├── mute_chinese.npy │ │ ├── mute_japanese.npy │ │ ├── mute_korean.npy │ │ ├── mute_portuguese.npy │ │ ├── mute_vietnamese.npy │ │ └── mute_spin.npy │ ├── models │ │ ├── embedders │ │ ├── predictors │ │ ├── pretrained_custom │ │ ├── pretrained_v1 │ │ ├── pretrained_v2 │ │ ├── speaker_diarization │ │ │ ├── assets │ │ │ │ ├── gpt2.tiktoken │ │ │ │ ├── mel_filters.npz │ │ │ │ └── multilingual.tiktoken │ │ │ └── models │ │ └── uvr5 │ ├── presets │ ├── weights │ └── ico.png ├── audios ├── dataset ├── main │ ├── app │ │ ├── core │ │ │ ├── downloads.py │ │ │ ├── editing.py │ │ │ ├── f0_extract.py │ │ │ ├── inference.py │ │ │ ├── model_utils.py │ │ │ ├── presets.py │ │ │ ├── process.py │ │ │ ├── restart.py │ │ │ ├── separate.py │ │ │ ├── training.py │ │ │ ├── tts.py │ │ │ ├── ui.py │ │ │ └── utils.py │ │ ├── tabs │ │ │ ├── downloads │ │ │ │ └── downloads.py │ │ │ ├── editing │ │ │ │ ├── editing.py │ │ │ │ └── child │ │ │ │ ├── audio_effects.py │ │ │ │ └── quirk.py │ │ │ ├── extra │ │ │ │ ├── extra.py │ │ │ │ └── child │ │ │ │ ├── convert_model.py │ │ │ │ ├── f0_extract.py │ │ │ │ ├── fushion.py │ │ │ │ ├── read_model.py │ │ │ │ ├── report_bugs.py │ │ │ │ └── settings.py │ │ │ ├── inference │ │ │ │ ├── inference.py │ │ │ │ └── child │ │ │ │ ├── convert.py │ │ │ │ ├── convert_tts.py │ │ │ │ ├── convert_with_whisper.py │ │ │ │ └── separate.py │ │ │ └── training │ │ │ ├── training.py │ │ │ └── child │ │ │ ├── create_dataset.py │ │ │ └── training.py │ │ ├── app.py │ │ ├── parser.py │ │ ├── run_tensorboard.py │ │ └── variables.py │ ├── configs │ │ ├── config.json │ │ ├── config.py │ │ ├── v1 │ │ │ ├── 32000.json │ │ │ ├── 40000.json │ │ │ └── 48000.json │ │ └── v2 │ │ ├── 32000.json │ │ ├── 40000.json │ │ └── 48000.json │ ├── inference │ │ ├── audio_effects.py │ │ ├── create_dataset.py │ │ ├── create_index.py │ │ ├── separator_music.py │ │ ├── extracting │ │ │ ├── embedding.py │ │ │ ├── extract.py │ │ │ ├── feature.py │ │ │ ├── preparing_files.py │ │ │ ├── rms.py │ │ │ └── setup_path.py │ │ ├── training │ │ │ ├── train.py │ │ │ ├── data_utils.py │ │ │ ├── losses.py │ │ │ ├── mel_processing.py │ │ │ └── utils.py │ │ ├── conversion │ │ │ ├── convert.py │ │ │ ├── pipeline.py │ │ │ └── utils.py │ │ └── preprocess │ │ ├── preprocess.py │ │ └── slicer2.py │ ├── library │ │ ├── utils.py │ │ ├── opencl.py │ │ ├── algorithm │ │ │ ├── attentions.py │ │ │ ├── commons.py │ │ │ ├── discriminators.py │ │ │ ├── encoders.py │ │ │ ├── modules.py │ │ │ ├── normalization.py │ │ │ ├── onnx_export.py │ │ │ ├── residuals.py │ │ │ ├── stftpitchshift.py │ │ │ └── synthesizers.py │ │ ├── architectures │ │ │ ├── demucs_separator.py │ │ │ ├── fairseq.py │ │ │ └── mdx_separator.py │ │ ├── generators │ │ │ ├── hifigan.py │ │ │ ├── mrf_hifigan.py │ │ │ ├── nsf_hifigan.py │ │ │ └── refinegan.py │ │ ├── predictors │ │ │ ├── CREPE │ │ │ │ ├── CREPE.py │ │ │ │ ├── filter.py │ │ │ │ └── model.py │ │ │ ├── FCN │ │ │ │ ├── FCN.py │ │ │ │ ├── convert.py │ │ │ │ └── model.py │ │ │ ├── FCPE │ │ │ │ ├── attentions.py │ │ │ │ ├── encoder.py │ │ │ │ ├── FCPE.py │ │ │ │ ├── stft.py │ │ │ │ ├── utils.py │ │ │ │ └── wav2mel.py │ │ │ ├── RMVPE │ │ │ │ ├── RMVPE.py │ │ │ │ ├── deepunet.py │ │ │ │ ├── e2e.py │ │ │ │ └── mel.py │ │ │ ├── WORLD │ │ │ │ ├── WORLD.py │ │ │ │ └── SWIPE.py │ │ │ └── Generator.py │ │ ├── speaker_diarization │ │ │ ├── audio.py │ │ │ ├── ECAPA_TDNN.py │ │ │ ├── embedding.py │ │ │ ├── encoder.py │ │ │ ├── features.py │ │ │ ├── parameter_transfer.py │ │ │ ├── segment.py │ │ │ ├── speechbrain.py │ │ │ └── whisper.py │ │ └── uvr5_lib │ │ ├── common_separator.py │ │ ├── separator.py │ │ ├── spec_utils.py │ │ └── demucs │ │ ├── apply.py │ │ ├── demucs.py │ │ ├── hdemucs.py │ │ ├── htdemucs.py │ │ ├── states.py │ │ └── utils.py │ └── tools │ ├── gdown.py │ ├── huggingface.py │ ├── mediafire.py │ ├── meganz.py │ ├── noisereduce.py │ └── pixeldrain.py ├── docker-compose-amd.yaml ├── docker-compose-cpu.yaml ├── docker-compose-cuda118.yaml ├── docker-compose-cuda128.yaml ├── Dockerfile ├── Dockerfile.amd ├── Dockerfile.cuda118 ├── Dockerfile.cuda128 ├── LICENSE ├── README.md ├── requirements.txt ├── run_app.bat └── tensorboard.bat
LƯU Ý
- Hiện tại các bộ mã hóa mới như MRF HIFIGAN vẫn chưa đầy đủ các bộ huấn luyện trước
- Bộ mã hóa MRF HIFIGAN và REFINEGAN không hỗ trợ huấn luyện khi không không huấn luyện cao độ
- Các mô hình trong kho lưu trữ Vietnamese-RVC được thu thập rải rác trên AI Hub, HuggingFace và các các kho lưu trữ khác. Có thể mang các giấy phép bản quyền khác nhau
Tuyên bố miễn trừ trách nhiệm
Dự án Vietnamese-RVC được phát triển với mục đích nghiên cứu, học tập và giải trí cá nhân. Tôi không khuyến khích cũng như không chịu trách nhiệm đối với bất kỳ hành vi lạm dụng công nghệ chuyển đổi giọng nói vì mục đích lừa đảo, giả mạo danh tính, hoặc vi phạm quyền riêng tư, bản quyền của bất kỳ cá nhân hay tổ chức nào.
Người dùng cần tự chịu trách nhiệm với hành vi sử dụng phần mềm này và cam kết tuân thủ pháp luật hiện hành tại quốc gia nơi họ sinh sống hoặc hoạt động.
Việc sử dụng giọng nói của người nổi tiếng, người thật hoặc nhân vật công chúng phải có sự cho phép hoặc đảm bảo không vi phạm pháp luật, đạo đức và quyền lợi của các bên liên quan.
Tác giả của dự án không chịu trách nhiệm pháp lý đối với bất kỳ hậu quả nào phát sinh từ việc sử dụng phần mềm này.
Điều khoản sử dụng
Bạn phải đảm bảo rằng các nội dung âm thanh bạn tải lên và chuyển đổi qua dự án này không vi phạm quyền sở hữu trí tuệ của bên thứ ba.
Không được phép sử dụng dự án này cho bất kỳ hoạt động nào bất hợp pháp, bao gồm nhưng không giới hạn ở việc sử dụng để lừa đảo, quấy rối, hay gây tổn hại đến người khác.
Bạn chịu trách nhiệm hoàn toàn đối với bất kỳ thiệt hại nào phát sinh từ việc sử dụng sản phẩm không đúng cách.
Tôi sẽ không chịu trách nhiệm với bất kỳ thiệt hại trực tiếp hoặc gián tiếp nào phát sinh từ việc sử dụng dự án này.
Dự án này được xây dựng dựa trên các dự án như sau
Tác Phẩm | Tác Giả | Giấy Phép |
---|---|---|
Applio | IAHispano | MIT License |
Python-audio-separator | Nomad Karaoke | MIT License |
Retrieval-based-Voice-Conversion-WebUI | RVC Project | MIT License |
RVC-ONNX-INFER-BY-Anh | Phạm Huỳnh Anh | MIT License |
Torch-Onnx-Crepe-By-Anh | Phạm Huỳnh Anh | MIT License |
Hubert-No-Fairseq | Phạm Huỳnh Anh | MIT License |
Local-attention | Phil Wang | MIT License |
TorchFcpe | CN_ChiTu | MIT License |
FcpeONNX | Yury | MIT License |
ContentVec | Kaizhi Qian | MIT License |
Mediafiredl | Santiago Ariel Mansilla | MIT License |
Noisereduce | Tim Sainburg | MIT License |
World.py-By-Anh | Phạm Huỳnh Anh | MIT License |
Mega.py | Marco Trevisan | No License |
Gdown | Kentaro Wada | MIT License |
Whisper | OpenAI | MIT License |
PyannoteAudio | pyannote | MIT License |
AudioEditingCode | Hila Manor | MIT License |
StftPitchShift | Jürgen Hock | MIT License |
Codename-RVC-Fork-3 | Codename;0 | MIT License |
Penn | Interactive Audio Lab | MIT License |
Kho mô hình của công cụ tìm kiếm mô hình
Các phương pháp trích xuất F0 trong RVC
Tài liệu này trình bày chi tiết các phương pháp trích xuất cao độ được sử dụng, thông tin về ưu, nhược điểm, sức mạnh và độ tin cậy của từng phương pháp theo trải nghiệm cá nhân.
Phương pháp | Loại | Ưu điểm | Hạn chế | Sức mạnh | Độ tin cậy |
---|---|---|---|---|---|
pm | Praat | Nhanh | Kém chính xác | Thấp | Thấp |
dio | PYWORLD | Thích hợp với Rap | Kém chính xác với tần số cao | Trung bình | Trung bình |
harvest | PYWORLD | Chính xác hơn DIO | Xử lý chậm hơn | Cao | Rất cao |
crepe | Deep Learning | Chính xác cao | Yêu cầu GPU | Rất cao | Rất cao |
mangio-crepe | crepe nofilter | Tối ưu hóa cho RVC | Đôi khi kém crepe gốc | Trung bình đến cao | Trung bình đến cao |
fcpe | Deep Learning | Chính xác, thời gian thực | Cần GPU mạnh | Khá | Trung bình |
fcpe-legacy | Old | Chính xác, thời gian thực | Cũ hơn | Khá | Trung bình |
rmvpe | Deep Learning | Hiệu quả với giọng hát | Tốn tài nguyên | Rất cao | Xuất sắc |
rmvpe-legacy | Old | Tính toán với Fmin-max | Cũ hơn | Cao | Khá |
yin | Librosa | Đơn giản, hiệu quả | Dễ lỗi bội | Trung bình | Thấp |
pyin | Librosa | Ổn định hơn YIN | Tính toán phức tạp hơn | Khá | Khá |
swipe | WORLD | Độ chính xác cao | Nhạy cảm với nhiễu | Cao | Khá |
piptrack | Librosa | Nhanh | Kém chính xác | Thấp | Thấp |
fcn | Deep Learning | Không Rõ | F0 Thấp | Không Rõ | Không Rõ |
Báo cáo lỗi
- Với trường hợp gặp lỗi khi sử dụng mã nguồn này tôi thực sự xin lỗi bạn vì trải nghiệm không tốt này, bạn có thể gửi báo cáo lỗi thông qua cách phía dưới
- Bạn có thể báo cáo lỗi cho tôi thông qua hệ thống báo cáo lỗi webhook trong giao diện sử dụng
- Với trường hợp hệ thống báo cáo lỗi không hoạt động bạn có thể báo cáo lỗi cho tôi thông qua Discord
pham_huynh_anh
Hoặc ISSUE
☎️ Liên hệ tôi
- Discord: pham_huynh_anh