File size: 1,301 Bytes
b43d98c
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
---
license: apache-2.0
language: es
base_model:
- Qwen/Qwen2.5-Coder-7B-Instruct
datasets:
- advbench
- openai/anthropic_harmless
library_name: transformers
pipeline_tag: text-generation
tags:
- LoRA
- Qwen
- unsloth
- 4bit
- spanish
- text-generation
---

# qwen25-adv-lora 

Este modelo es una versión de **Qwen2.5-Coder-7B-Instruct** afinada utilizando la técnica **LoRA** (Low-Rank Adaptation) para mejorar su rendimiento en tareas de generación de texto y robustez frente a ejemplos adversariales, como los de *AdvBench*. El modelo ha sido fusionado (`merge_and_unload`) para facilitar su uso directo en inferencia.

## Detalles técnicos

- Modelo base: `Qwen2.5-Coder-7B-Instruct`
- Técnica de ajuste: `LoRA` con `unsloth`
- Precision: `4-bit` (con `bitsandbytes`)
- Secuencia máxima: 4096 tokens
- Uso: generación de texto en español e inglés

## Cómo usar

```python
from transformers import AutoTokenizer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained("Alxis955/qwen25-adv-lora")
tokenizer = AutoTokenizer.from_pretrained("Alxis955/qwen25-adv-lora")

prompt = "¿Cuál es la capital de Francia?"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))