GPT-2 French Fine-tuned

Ce modèle est une version fine-tunée de GPT-2 pour le français.

Utilisation

from transformers import GPT2Tokenizer, GPT2LMHeadModel

tokenizer = GPT2Tokenizer.from_pretrained("Muyumba/gpt2-french-finetuned")
model = GPT2LMHeadModel.from_pretrained("Muyumba/gpt2-french-finetuned")

# Génération de texte
input_text = "Bonjour, comment allez-vous?"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
output = model.generate(input_ids, max_length=100, do_sample=True)
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)

Détails du modèle

  • Modèle de base: GPT-2
  • Langue: Français
  • Type: Génération de texte
Downloads last month
67
Safetensors
Model size
124M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 1 Ask for provider support

Model tree for Muyumba/gpt2-french-finetuned

Finetuned
(1802)
this model