Novaciano commited on
Commit
bd9a293
·
verified ·
1 Parent(s): c674f2b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +12 -6
README.md CHANGED
@@ -1,6 +1,12 @@
1
  ---
2
  tags:
3
  - llama-cpp
 
 
 
 
 
 
4
  ---
5
 
6
  📲 Gracias por mostrar interes en este modelo cuantizado del todopoderoso Novaciano que es capaz de correr en una papa 🥔 de 3Gb de RAM.
@@ -190,7 +196,7 @@ make
190
  15 - Descargue este modelo en una carpeta nueva llamada 'Modelos' que se encuentre en la carpeta raiz de Termux con el siguiente comando:
191
 
192
  ```bash
193
- wget https://huggingface.co/Novaciano/Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF/resolve/main/Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf
194
  ```
195
 
196
  Si no sabes crear una carpeta, ni bien ejecutes Termux escribe:
@@ -266,13 +272,13 @@ Invoque el Servidor llama.cpp o la CLI.
266
  **CLI:**
267
 
268
  ```bash
269
- llama-cli --hf-repo Novaciano/Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -p "Argentina va a superar su crisis financiera cuando"
270
  ```
271
 
272
  **SERVIDOR:**
273
 
274
  ```bash
275
- llama-server --hf-repo Novaciano/Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -c 2048
276
  ```
277
 
278
  **Nota:** *También puede utilizar este punto de control directamente a través de los [Pasos de uso](https://github.com/ggerganov/llama.cpp?tab=readme-ov-file#usage) incluido en el repositorio Llama.cpp.*
@@ -292,11 +298,11 @@ cd llama.cpp && LLAMA_CURL=1 make
292
  **Paso 3:** Ejecutar la inferencia a través del binario principal.
293
 
294
  ```
295
- ./llama-cli --hf-repo Novaciano/Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -p "Argentina va a superar su crisis financiera cuando"
296
  ```
297
 
298
  o también con
299
 
300
  ```
301
- ./llama-server --hf-repo Novaciano/Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -c 2048
302
- ```
 
1
  ---
2
  tags:
3
  - llama-cpp
4
+ license: mit
5
+ language:
6
+ - es
7
+ base_model:
8
+ - meta-llama/Llama-3.2-1B
9
+ library_name: fasttext
10
  ---
11
 
12
  📲 Gracias por mostrar interes en este modelo cuantizado del todopoderoso Novaciano que es capaz de correr en una papa 🥔 de 3Gb de RAM.
 
196
  15 - Descargue este modelo en una carpeta nueva llamada 'Modelos' que se encuentre en la carpeta raiz de Termux con el siguiente comando:
197
 
198
  ```bash
199
+ wget https://huggingface.co/Novaciano/Llama-3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF/resolve/main/Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf
200
  ```
201
 
202
  Si no sabes crear una carpeta, ni bien ejecutes Termux escribe:
 
272
  **CLI:**
273
 
274
  ```bash
275
+ llama-cli --hf-repo Novaciano/Llama-3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -p "Argentina va a superar su crisis financiera cuando"
276
  ```
277
 
278
  **SERVIDOR:**
279
 
280
  ```bash
281
+ llama-server --hf-repo Novaciano/Llama-3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -c 2048
282
  ```
283
 
284
  **Nota:** *También puede utilizar este punto de control directamente a través de los [Pasos de uso](https://github.com/ggerganov/llama.cpp?tab=readme-ov-file#usage) incluido en el repositorio Llama.cpp.*
 
298
  **Paso 3:** Ejecutar la inferencia a través del binario principal.
299
 
300
  ```
301
+ ./llama-cli --hf-repo Novaciano/Llama-3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -p "Argentina va a superar su crisis financiera cuando"
302
  ```
303
 
304
  o también con
305
 
306
  ```
307
+ ./llama-server --hf-repo Novaciano/Llama-3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -c 2048
308
+ ```