YAML Metadata
Warning:
empty or missing yaml metadata in repo card
(https://huggingface.co/docs/hub/model-cards#model-card-metadata)
🤖 GIT-Base Captioning en Wolof (ZigZeug)
Ce modèle est basé sur microsoft/git-base
et a été adapté pour générer automatiquement des légendes d’images en wolof.
Il intègre :
- 🧠 Un modèle
AutoModelForCausalLM
dérivé de GIT-Base - 🧾 Un tokenizer Byte-Level BPE entraîné sur un corpus wolof
- 🖼️ Le préprocesseur image original de GIT
- 🔄 Un processor combiné pour traiter image + texte (format Hugging Face)
📦 Contenu du repo
config.json
: config du modèle adaptépytorch_model.bin
: poids du modèle GIT avec vocabulaire woloftokenizer_config.json
,vocab.json
,merges.txt
: tokenizer Wolofpreprocessor_config.json
: paramètres image/text du processorREADME.md
: documentation complète
🌍 Langue ciblée
Wolof
Code ISO 639-3 : wol_Latn
Corpus de légendes COCO traduites à la main ou via un pipeline semi-automatisé.
💡 Exemple d'utilisation
from transformers import AutoProcessor, AutoModelForCausalLM
from PIL import Image
import torch
# Chargement
processor = AutoProcessor.from_pretrained("ZigZeug/git-wolof-captioning")
model = AutoModelForCausalLM.from_pretrained("ZigZeug/git-wolof-captioning")
# Image d'entrée
image = Image.open("chemin/vers/image.jpg").convert("RGB")
# Inference
inputs = processor(images=image, return_tensors="pt").to("cuda" if torch.cuda.is_available() else "cpu")
generated_ids = model.generate(pixel_values=inputs["pixel_values"], max_length=50)
caption = processor.tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print("📝 Caption en Wolof :", caption)
- Downloads last month
- 3
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support