Minerva - Modelo afinado a partir de Mistral-7B

minerva es un modelo de lenguaje entrenado con fine-tuning sobre la base de mistral-7b, orientado a mejorar la comprensión contextual y respuestas personalizadas en flujos conversacionales. Entrenado con un dataset de ~480 ejemplos, representa un modelo compacto, eficiente y apto para correr en entornos con recursos limitados (como GPUs de 4GB).


Detalles Técnicos

  • Base Model: mistral-7b
  • Técnica: Fine-tuning con LoRA
  • Epochs: 3
  • Tamaño del modelo (quantized): 7.2GB (q8_0)
  • Formato: GGUF
  • Conversión: llama.cpp - convert_hf_to_gguf.py
  • Deployment: Ollama + WebUI
  • Framework de entrenamiento: Axolotl
  • Infraestructura: RunPod + servidor local Ubuntu (4GB VRAM, 16GB RAM)

Instrucciones para usarlo con Ollama

ollama pull <usuario>/minerva
ollama run minerva

O para registrar tu propia copia local:

# Modelfile
FROM model_q8_0.gguf

Y luego:

ollama create minerva -f Modelfile

Dataset

El dataset consta de ~480 ejemplos seleccionados y curados manualmente, con foco en:

  • Preguntas y respuestas técnicas
  • Instrucciones con estructura de pasos
  • Personalización del estilo conversacional
  • Se puede ver aqui.

Objetivo

Minerva fue diseñado como asistente inteligente para automatizar tareas, responder con criterio técnico, y adaptarse a contextos personalizados (educación, desarrollo, cultura técnica local).


Licencia

MIT – Libre uso comercial, modificación y distribución.


Contacto

Desarrollado por Leon Saia.
Para sugerencias o colaboración, contactame por GitHub o vía mi blog.

Downloads last month
27
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support