V
VERA
v0.2
INTELLIGENCE
Solution d'intelligence artificielle nouvelle génération

Vera v0.2

Créé le : 7 mai 2025
Auteur : Dorian Dominici
Paramètres : 8 milliards
Contexte max. : 128 000 tokens


🌟 Description

Vera est un modèle de langage polyvalent (LLM) multilingue, conçu pour offrir un échange naturel principalement en français et en anglais, avec un support secondaire pour l'espagnol, l'italien, l'allemand et le polonais. Grâce à ses 8 milliards de paramètres et à une fenêtre contextuelle considérablement étendue à 128 k tokens, Vera excelle dans :

  • 💬 Conversation fluide et naturelle
  • 🔄 Traduction précise et contextuelle
  • 📝 Génération et correction de code avancées
  • 🤖 Agents IA pour tâches complexes
  • 📊 Analyse de documents volumineux

🚀 Points forts

  • Multilingue : Excellence en français et anglais, avec support solide pour l'espagnol, l'italien, l'allemand et le polonais.
  • Contexte étendu : Fenêtre de 128k tokens idéale pour l'analyse de longs documents et scénarios d'agents IA complexes.
  • Connaissance générale élevée : Base de connaissances étendue couvrant un large éventail de domaines académiques, culturels et pratiques.
  • Polyvalence améliorée : Performances supérieures en chat, traduction, résumé, codage et raisonnement.
  • Compétences techniques : Très bonnes aptitudes en programmation, analyse de données et rédaction technique.
  • Accès open-source : Facilement déployable et intégrable via la plateforme Hugging Face.

🛠️ Cas d'usage

Domaine Exemples
Chatbot & Assistance Support client multilingue, systèmes conversationnels avancés
Traduction Textes techniques, documentation spécialisée, littérature
Développement logiciel Génération de code, débogage, documentation automatisée
Rédaction & Analyse Articles, rapports, synthèses de documents volumineux
Automatisation IA Agents conversationnels complexes, systèmes de RAG
Éducation Tutoriels personnalisés, assistance à l'apprentissage

Téléchargement et utilisation :

Option 1 : Via Ollama

ollama run hf.co/Dorian2B/Vera-v0.2-GGUF

Option 2 : Téléchargement direct (GGUF)

Modèle GGUF Quantifié (Q8_0)

Option 3 : Utilisation avec Python (PyTorch)

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Dorian2B/Vera-v0.2"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Cas d'usage :

  • Assistance personnelle hors ligne
  • Réponses rapides en français
  • Solutions pour appareils à ressources limitées

Notes :

  • Fonctionnement 100% local respectant la vie privée
  • Performances optimales sur CPU/GPU (format GGUF)
  • Poids du modèle : ~8.5GB (Q8_0)
Downloads last month
10
GGUF
Model size
8.03B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

4-bit

5-bit

6-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Dorian2B/Vera-v0.2-GGUF

Base model

Dorian2B/Vera-v0.2
Quantized
(1)
this model

Collection including Dorian2B/Vera-v0.2-GGUF