Python Beispill Code
#2
by
yvesg
- opened
Gudde Mëtteg
wär et méiglech ee Beispill ze kréien, wéi een de Model richteg notzt.
E puer Zeilen python Code an déi genee Versioun vun den Librarien géif wierklech hëllefen
merci
Et gi verschidde Méiglechkeeten. Hei emol eng einfach:
import os
import torch
from transformers import pipeline
device = "cuda:0" if torch.cuda.is_available() else "cpu"
pipe = pipeline(
"automatic-speech-recognition",
model=PATH_TO_HUGGINGFACE_MODEL,
chunk_length_s=30,
device=device,
max_new_tokens=100,
)
result = pipe(MP3_FILE)
print(result)
Alternativ kann een de Modell vum Huggingface-Format zréck an d'Original Whisper-Format konvertéieren. Detailer: https://huggingface.co/docs/transformers/main/en/model_doc/whisper#resources
Da gesäit et esou aus:
import os
import whisper
model = whisper.load_model(PATH_TO_WHISPER_MODEL, device="cuda")
result = model.transcribe(MP3_FILE)
print(result)
An da kann een de Modell och nach an d'CTranslate2-Format ëmwandelen an "Faster Whisper" notzen. Do ass hei méi ze fannen: https://github.com/SYSTRAN/faster-whisper
villmols merci.
da kucken ech mol, wat ech do fir Resultater kréien