What is this?
DeepSeek (深度求索)が公式自らDeepSeek-R1をQwen2.5-32B-Instructに蒸留したThinkingモデル、DeepSeek-R1-Distill-Qwen-32BをGGUFフォーマットに変換したものです。
imatrix dataset
日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
また、CUDA版llama.cppがbfloat16に対応したため、imatrixの算出は本来の数値精度であるBF16のモデルを使用して行いました。
Environment
Windows版llama.cpp-b4514およびllama.cpp-b4524同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
License
Apache 2.0
Developer
Alibaba Cloud & DeepSeek (深度求索)
- Downloads last month
- 514
Inference Providers
NEW
This model is not currently available via any of the supported third-party Inference Providers, and
HF Inference API was unable to determine this model's library.