|
--- |
|
license: other |
|
license_name: llama3 |
|
license_link: https://huggingface.co/meta-llama/Meta-Llama-3-8B/blob/main/LICENSE |
|
language: |
|
- en |
|
- ja |
|
tags: |
|
- llama3 |
|
datasets: |
|
- TFMC/imatrix-dataset-for-japanese-llm |
|
--- |
|
# Meta-Llama-3-70B-Instruct-gguf |
|
[meta-llamaさんが公開しているMeta-Llama-3-70B-Instruct](https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct)のggufフォーマット変換版です。 |
|
|
|
eot_id対応してます。 |
|
imatrixのデータは[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)を使用して作成しました。 |
|
|
|
## 分割されたファイルについて |
|
q6_kやq8_0のファイルはサイズが大きく分割されているので結合する必要があります。 |
|
|
|
~~~bash |
|
cat Meta-Llama-3-70B-Instruct-Q5_K_M.gguf.* > Meta-Llama-3-70B-Instruct-Q5_K_M.gguf |
|
~~~ |
|
|
|
## Usage |
|
|
|
``` |
|
git clone https://github.com/ggerganov/llama.cpp.git |
|
cd llama.cpp |
|
make -j |
|
./main -m 'Meta-Llama-3-70B-Instruct-Q4_0.gguf' -p "<|begin_of_text|><|start_header_id|>user <|end_header_id|>\n\nこんにちわ<|eot_id|><|start_header_id|>assistant <|end_header_id|>\n\n" -n 128 |
|
``` |