VERA
v1.5
INSTRUCT

Vera V1.5 - Instruct

Description :

Vera-1.5 GGUF est la version optimisée au format GGUF de Vera-1.5, développée en 2025. Basé sur une architecture de 2.6B paramètres. Il est idéal pour la rédaction, la traduction, l’analyse et l’assistance textuelle.

Amélioration clés :

  • Enrichissement de la base de connaissances pour une meilleure pertinence contextuelle.
  • Complexité linguistique accrue permettant des réponses plus nuancées.
  • Formulations mises à jour pour une communication plus fluide.

Caractéristiques clés :

  • Modèle léger (2.6B de paramètres) : Idéal pour une utilisation locale, y compris sur mobile
  • Spécialisation en français : Compréhension et génération de texte de haute qualité
  • Formats disponibles : GGUF (Llama.cpp/Ollama) et PyTorch
  • Open Source : License Apache 2.0

Téléchargement et utilisation :

Option 1 : Via Ollama

ollama run hf.co/Dorian2B/Vera-v1.5-Instruct-GGUF:Q8_0

Option 2 : Téléchargement direct (GGUF)

Modèle GGUF Quantifié (Q8_0)

Option 3 : Utilisation avec Python (PyTorch)

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Dorian2B/Vera-v1.5-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Cas d'usage :

  • Assistance personnelle hors ligne
  • Réponses rapides en français
  • Solutions pour appareils à ressources limitées

Notes :

  • Fonctionnement 100% local respectant la vie privée
  • Performances optimales sur CPU/GPU (format GGUF)
  • Poids du modèle : ~2.8GB (Q8_0), ~1.7GB (Q4_K_M)
Downloads last month
110
GGUF
Model size
2.61B params
Architecture
gemma2
Hardware compatibility
Log In to view the estimation

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Dorian2B/Vera-v1.5-Instruct-2B-GGUF

Quantized
(4)
this model

Space using Dorian2B/Vera-v1.5-Instruct-2B-GGUF 1

Collection including Dorian2B/Vera-v1.5-Instruct-2B-GGUF