Vera v0.2
Collection
Vera v0.2 succède à la v0.1 avec une architecture élargie, un support hexalingue et une expertise renforcée en systèmes agentiques et conversation.
•
2 items
•
Updated
Créé le : 7 mai 2025
Auteur : Dorian Dominici
Paramètres : 8 milliards
Contexte max. : 128 000 tokens
Vera est un modèle de langage polyvalent (LLM) multilingue, conçu pour offrir un échange naturel principalement en français et en anglais, avec un support secondaire pour l'espagnol, l'italien, l'allemand et le polonais. Grâce à ses 8 milliards de paramètres et à une fenêtre contextuelle considérablement étendue à 128 k tokens, Vera excelle dans :
Domaine | Exemples |
---|---|
Chatbot & Assistance | Support client multilingue, systèmes conversationnels avancés |
Traduction | Textes techniques, documentation spécialisée, littérature |
Développement logiciel | Génération de code, débogage, documentation automatisée |
Rédaction & Analyse | Articles, rapports, synthèses de documents volumineux |
Automatisation IA | Agents conversationnels complexes, systèmes de RAG |
Éducation | Tutoriels personnalisés, assistance à l'apprentissage |
ollama run hf.co/Dorian2B/Vera-v0.2-GGUF
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Dorian2B/Vera-v0.2"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
4-bit
5-bit
6-bit
8-bit
Base model
Dorian2B/Vera-v0.2