Upload README.md with huggingface_hub
Browse files
README.md
CHANGED
@@ -1,8 +1,5 @@
|
|
1 |
-
---
|
2 |
-
{}
|
3 |
-
---
|
4 |
|
5 |
-
# llama-3.2-1B-MS-MARCO-
|
6 |
|
7 |
Este modelo es una versión afinada del modelo [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) utilizando el conjunto de datos MS MARCO para tareas de generación de respuestas.
|
8 |
|
@@ -41,7 +38,7 @@ Este modelo es una versión afinada del modelo [meta-llama/Llama-3.2-1B](https:/
|
|
41 |
- lora_dropout: 0.05
|
42 |
- **Recursos Computacionales:**
|
43 |
- Dispositivo: cuda
|
44 |
-
- Memoria GPU utilizada: A100
|
45 |
|
46 |
## Resultados
|
47 |
|
@@ -61,5 +58,5 @@ Para utilizar este modelo, puedes cargarlo de la siguiente manera:
|
|
61 |
```python
|
62 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
63 |
|
64 |
-
model = AutoModelForCausalLM.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-
|
65 |
-
tokenizer = AutoTokenizer.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-
|
|
|
|
|
|
|
|
|
1 |
|
2 |
+
# llama-3.2-1B-MS-MARCO-QLoRA
|
3 |
|
4 |
Este modelo es una versión afinada del modelo [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) utilizando el conjunto de datos MS MARCO para tareas de generación de respuestas.
|
5 |
|
|
|
38 |
- lora_dropout: 0.05
|
39 |
- **Recursos Computacionales:**
|
40 |
- Dispositivo: cuda
|
41 |
+
- Memoria GPU utilizada: A100(40gb)
|
42 |
|
43 |
## Resultados
|
44 |
|
|
|
58 |
```python
|
59 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
60 |
|
61 |
+
model = AutoModelForCausalLM.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-QLoRA')
|
62 |
+
tokenizer = AutoTokenizer.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-QLoRA')
|