What is this?

CohereForAI(C4AI)のオープンウェイト言語モデルc4ai-command-r7b-12-2024をGGUFフォーマットに変換したものです。
商用利用は不可となっているため注意してください。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
また、CUDA版llama.cppがbfloat16に対応したため、imatrixの算出は本来の数値精度であるBF16のモデルを使用して行いました。

Chat template

<|START_OF_TURN_TOKEN|><|SYSTEM_TOKEN|>ここにSystem Promptを書きます<|END_OF_TURN_TOKEN|><|START_OF_TURN_TOKEN|><|USER_TOKEN|>ここにMessageを書きます<|END_OF_TURN_TOKEN|><|START_OF_TURN_TOKEN|><|CHATBOT_TOKEN|>

Note

llama.cpp-b4415以降と合わせてご利用ください。

Environment

Windows版llama.cpp-b4431およびllama.cpp-b4453同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。

License

cc-by-nc-4.0

Developer

CohereForAI

Downloads last month
0
GGUF
Model size
8.03B params
Architecture
cohere2

4-bit

16-bit

Inference API
Unable to determine this model's library. Check the docs .