Update README.md
Browse files
README.md
CHANGED
@@ -53,7 +53,7 @@ quantized_by: Second State Inc.
|
|
53 |
wasmedge --dir .:. --nn-preload default:GGML:AUTO:Yi-1.5-9B-Chat-Q5_K_M.gguf \
|
54 |
llama-api-server.wasm \
|
55 |
--prompt-template chatml \
|
56 |
-
--reverse-prompt "<|im_end|>"
|
57 |
--ctx-size 4096 \
|
58 |
--model-name Yi-1.5-9B-Chat
|
59 |
```
|
@@ -64,7 +64,7 @@ quantized_by: Second State Inc.
|
|
64 |
wasmedge --dir .:. --nn-preload default:GGML:AUTO:Yi-1.5-9B-Chat-Q5_K_M.gguf \
|
65 |
llama-chat.wasm \
|
66 |
--prompt-template chatml \
|
67 |
-
--reverse-prompt "<|im_end|>"
|
68 |
--ctx-size 4096
|
69 |
```
|
70 |
|
|
|
53 |
wasmedge --dir .:. --nn-preload default:GGML:AUTO:Yi-1.5-9B-Chat-Q5_K_M.gguf \
|
54 |
llama-api-server.wasm \
|
55 |
--prompt-template chatml \
|
56 |
+
--reverse-prompt "<|im_end|>" \
|
57 |
--ctx-size 4096 \
|
58 |
--model-name Yi-1.5-9B-Chat
|
59 |
```
|
|
|
64 |
wasmedge --dir .:. --nn-preload default:GGML:AUTO:Yi-1.5-9B-Chat-Q5_K_M.gguf \
|
65 |
llama-chat.wasm \
|
66 |
--prompt-template chatml \
|
67 |
+
--reverse-prompt "<|im_end|>" \
|
68 |
--ctx-size 4096
|
69 |
```
|
70 |
|