YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

🤖 GIT-Base Captioning en Wolof (ZigZeug)

Ce modèle est basé sur microsoft/git-base et a été adapté pour générer automatiquement des légendes d’images en wolof.

Il intègre :

  • 🧠 Un modèle AutoModelForCausalLM dérivé de GIT-Base
  • 🧾 Un tokenizer Byte-Level BPE entraîné sur un corpus wolof
  • 🖼️ Le préprocesseur image original de GIT
  • 🔄 Un processor combiné pour traiter image + texte (format Hugging Face)

📦 Contenu du repo

  • config.json : config du modèle adapté
  • pytorch_model.bin : poids du modèle GIT avec vocabulaire wolof
  • tokenizer_config.json, vocab.json, merges.txt : tokenizer Wolof
  • preprocessor_config.json : paramètres image/text du processor
  • README.md : documentation complète

🌍 Langue ciblée

Wolof
Code ISO 639-3 : wol_Latn

Corpus de légendes COCO traduites à la main ou via un pipeline semi-automatisé.


💡 Exemple d'utilisation

from transformers import AutoProcessor, AutoModelForCausalLM
from PIL import Image
import torch

# Chargement
processor = AutoProcessor.from_pretrained("ZigZeug/git-wolof-captioning")
model = AutoModelForCausalLM.from_pretrained("ZigZeug/git-wolof-captioning")

# Image d'entrée
image = Image.open("chemin/vers/image.jpg").convert("RGB")

# Inference
inputs = processor(images=image, return_tensors="pt").to("cuda" if torch.cuda.is_available() else "cpu")
generated_ids = model.generate(pixel_values=inputs["pixel_values"], max_length=50)
caption = processor.tokenizer.decode(generated_ids[0], skip_special_tokens=True)

print("📝 Caption en Wolof :", caption)
Downloads last month
3
Safetensors
Model size
0.2B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support