TheBug95 commited on
Commit
253c702
1 Parent(s): a1283e7

Upload README.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +4 -7
README.md CHANGED
@@ -1,8 +1,5 @@
1
- ---
2
- {}
3
- ---
4
 
5
- # llama-3.2-1B-MS-MARCO-qlora
6
 
7
  Este modelo es una versión afinada del modelo [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) utilizando el conjunto de datos MS MARCO para tareas de generación de respuestas.
8
 
@@ -41,7 +38,7 @@ Este modelo es una versión afinada del modelo [meta-llama/Llama-3.2-1B](https:/
41
  - lora_dropout: 0.05
42
  - **Recursos Computacionales:**
43
  - Dispositivo: cuda
44
- - Memoria GPU utilizada: A100
45
 
46
  ## Resultados
47
 
@@ -61,5 +58,5 @@ Para utilizar este modelo, puedes cargarlo de la siguiente manera:
61
  ```python
62
  from transformers import AutoModelForCausalLM, AutoTokenizer
63
 
64
- model = AutoModelForCausalLM.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-qlora')
65
- tokenizer = AutoTokenizer.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-qlora')
 
 
 
 
1
 
2
+ # llama-3.2-1B-MS-MARCO-QLoRA
3
 
4
  Este modelo es una versión afinada del modelo [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) utilizando el conjunto de datos MS MARCO para tareas de generación de respuestas.
5
 
 
38
  - lora_dropout: 0.05
39
  - **Recursos Computacionales:**
40
  - Dispositivo: cuda
41
+ - Memoria GPU utilizada: A100(40gb)
42
 
43
  ## Resultados
44
 
 
58
  ```python
59
  from transformers import AutoModelForCausalLM, AutoTokenizer
60
 
61
+ model = AutoModelForCausalLM.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-QLoRA')
62
+ tokenizer = AutoTokenizer.from_pretrained('TheBug95/llama-3.2-1B-MS-MARCO-QLoRA')