Vera 1.5
Collection
Vera-1.5 est une itération de la version Vera-1.1-Instruct. C'est un modèle spécialisez dans la conversation rapide et dans l'efficience (2.6B).
•
2 items
•
Updated
•
1
Vera-1.5 GGUF est la version optimisée au format GGUF de Vera-1.5, développée en 2025. Basé sur une architecture de 2.6B paramètres. Il est idéal pour la rédaction, la traduction, l’analyse et l’assistance textuelle.
Amélioration clés :
Caractéristiques clés :
ollama run hf.co/Dorian2B/Vera-v1.5-Instruct-GGUF:Q8_0
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Dorian2B/Vera-v1.5-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
2-bit
3-bit
4-bit
5-bit
6-bit
8-bit
Base model
Dorian2B/Vera-v1.5-Instruct-2B