--- license: apache-2.0 language: es base_model: - Qwen/Qwen2.5-Coder-7B-Instruct datasets: - advbench - openai/anthropic_harmless library_name: transformers pipeline_tag: text-generation tags: - LoRA - Qwen - unsloth - 4bit - spanish - text-generation --- # qwen25-adv-lora Este modelo es una versión de **Qwen2.5-Coder-7B-Instruct** afinada utilizando la técnica **LoRA** (Low-Rank Adaptation) para mejorar su rendimiento en tareas de generación de texto y robustez frente a ejemplos adversariales, como los de *AdvBench*. El modelo ha sido fusionado (`merge_and_unload`) para facilitar su uso directo en inferencia. ## Detalles técnicos - Modelo base: `Qwen2.5-Coder-7B-Instruct` - Técnica de ajuste: `LoRA` con `unsloth` - Precision: `4-bit` (con `bitsandbytes`) - Secuencia máxima: 4096 tokens - Uso: generación de texto en español e inglés ## Cómo usar ```python from transformers import AutoTokenizer, AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained("Alxis955/qwen25-adv-lora") tokenizer = AutoTokenizer.from_pretrained("Alxis955/qwen25-adv-lora") prompt = "¿Cuál es la capital de Francia?" inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=100) print(tokenizer.decode(outputs[0], skip_special_tokens=True))