Edit model card
YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

llama-3.2-1B-MS-MARCO-QLoRA

Este modelo es una versión afinada del modelo meta-llama/Llama-3.2-1B utilizando el conjunto de datos MS MARCO para tareas de generación de respuestas.

Descripción del Modelo

  • Modelo Base: meta-llama/Llama-3.2-1B
  • Técnicas Utilizadas:
    • Quantization con QLoRA
    • Afinación con LoRA y PEFT
  • Arquitectura:
    • Parámetros entrenables: Solo los adaptadores LoRA
    • Parámetros totales: 771819520
    • Parámetros entrenables: 22544384

Conjunto de Datos

  • Nombre del Conjunto de Datos: MS MARCO
  • Descripción: Conjunto de datos de comprensión lectora a gran escala que incluye preguntas y respuestas reales de usuarios.
  • Tamaño del Conjunto de Entrenamiento: 56588
  • Tamaño del Conjunto de Validación: 14148
  • Preprocesamiento:
    • Limpieza de texto
    • Tokenización
    • Creación de prompts combinando contexto, pregunta y respuesta

Entrenamiento

  • Hiperparámetros:
    • Número de épocas: 7
    • Tamaño de lote de entrenamiento: 16
    • Tamaño de lote de evaluación: 8
    • Tasa de aprendizaje: 0.0002
  • Configuración de LoRA:
    • r (rango): 32
    • lora_alpha: 32
    • lora_dropout: 0.05
  • Recursos Computacionales:
    • Dispositivo: cuda
    • Memoria GPU utilizada: A100(40gb)

Resultados

Métricas

  • Pérdida de Entrenamiento Final: 0.5787
  • Pérdida de Validación Final: 2.6848

Gráficas

Curva de Pérdida

Uso del Modelo

Para utilizar este modelo, puedes cargarlo de la siguiente manera:

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-QLoRA')
tokenizer = AutoTokenizer.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-QLoRA')
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference API
Unable to determine this model's library. Check the docs .