Update README.md
Browse files
README.md
CHANGED
|
@@ -1,6 +1,12 @@
|
|
| 1 |
---
|
| 2 |
tags:
|
| 3 |
- llama-cpp
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 4 |
---
|
| 5 |
|
| 6 |
📲 Gracias por mostrar interes en este modelo cuantizado del todopoderoso Novaciano que es capaz de correr en una papa 🥔 de 3Gb de RAM.
|
|
@@ -190,7 +196,7 @@ make
|
|
| 190 |
15 - Descargue este modelo en una carpeta nueva llamada 'Modelos' que se encuentre en la carpeta raiz de Termux con el siguiente comando:
|
| 191 |
|
| 192 |
```bash
|
| 193 |
-
wget https://huggingface.co/Novaciano/
|
| 194 |
```
|
| 195 |
|
| 196 |
Si no sabes crear una carpeta, ni bien ejecutes Termux escribe:
|
|
@@ -266,13 +272,13 @@ Invoque el Servidor llama.cpp o la CLI.
|
|
| 266 |
**CLI:**
|
| 267 |
|
| 268 |
```bash
|
| 269 |
-
llama-cli --hf-repo Novaciano/
|
| 270 |
```
|
| 271 |
|
| 272 |
**SERVIDOR:**
|
| 273 |
|
| 274 |
```bash
|
| 275 |
-
llama-server --hf-repo Novaciano/
|
| 276 |
```
|
| 277 |
|
| 278 |
**Nota:** *También puede utilizar este punto de control directamente a través de los [Pasos de uso](https://github.com/ggerganov/llama.cpp?tab=readme-ov-file#usage) incluido en el repositorio Llama.cpp.*
|
|
@@ -292,11 +298,11 @@ cd llama.cpp && LLAMA_CURL=1 make
|
|
| 292 |
**Paso 3:** Ejecutar la inferencia a través del binario principal.
|
| 293 |
|
| 294 |
```
|
| 295 |
-
./llama-cli --hf-repo Novaciano/
|
| 296 |
```
|
| 297 |
|
| 298 |
o también con
|
| 299 |
|
| 300 |
```
|
| 301 |
-
./llama-server --hf-repo Novaciano/
|
| 302 |
-
```
|
|
|
|
| 1 |
---
|
| 2 |
tags:
|
| 3 |
- llama-cpp
|
| 4 |
+
license: mit
|
| 5 |
+
language:
|
| 6 |
+
- es
|
| 7 |
+
base_model:
|
| 8 |
+
- meta-llama/Llama-3.2-1B
|
| 9 |
+
library_name: fasttext
|
| 10 |
---
|
| 11 |
|
| 12 |
📲 Gracias por mostrar interes en este modelo cuantizado del todopoderoso Novaciano que es capaz de correr en una papa 🥔 de 3Gb de RAM.
|
|
|
|
| 196 |
15 - Descargue este modelo en una carpeta nueva llamada 'Modelos' que se encuentre en la carpeta raiz de Termux con el siguiente comando:
|
| 197 |
|
| 198 |
```bash
|
| 199 |
+
wget https://huggingface.co/Novaciano/Llama-3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF/resolve/main/Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf
|
| 200 |
```
|
| 201 |
|
| 202 |
Si no sabes crear una carpeta, ni bien ejecutes Termux escribe:
|
|
|
|
| 272 |
**CLI:**
|
| 273 |
|
| 274 |
```bash
|
| 275 |
+
llama-cli --hf-repo Novaciano/Llama-3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -p "Argentina va a superar su crisis financiera cuando"
|
| 276 |
```
|
| 277 |
|
| 278 |
**SERVIDOR:**
|
| 279 |
|
| 280 |
```bash
|
| 281 |
+
llama-server --hf-repo Novaciano/Llama-3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -c 2048
|
| 282 |
```
|
| 283 |
|
| 284 |
**Nota:** *También puede utilizar este punto de control directamente a través de los [Pasos de uso](https://github.com/ggerganov/llama.cpp?tab=readme-ov-file#usage) incluido en el repositorio Llama.cpp.*
|
|
|
|
| 298 |
**Paso 3:** Ejecutar la inferencia a través del binario principal.
|
| 299 |
|
| 300 |
```
|
| 301 |
+
./llama-cli --hf-repo Novaciano/Llama-3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -p "Argentina va a superar su crisis financiera cuando"
|
| 302 |
```
|
| 303 |
|
| 304 |
o también con
|
| 305 |
|
| 306 |
```
|
| 307 |
+
./llama-server --hf-repo Novaciano/Llama-3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1_GGUF --hf-file Llama3.2-1b_NOVA_Anal.Sent_y_Sin.Cen_V1.gguf -c 2048
|
| 308 |
+
```
|