YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

LLM-JP-24x1.8b-Combined

このモデルは、LLM-JPプロジェクトが公開している3つのモデル(llm-jp-3-8x1.8b、llm-jp-3-8x1.8b-instruct2、llm-jp-3-8x1.8b-instruct3)のエキスパートを組み合わせて作成した24エキスパートのMixture of Expertsモデルです。

モデルの詳細

Downloads last month
4
Safetensors
Model size
26.2B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for aixsatoshi/llm-jp-1.8bx24-combined

Quantizations
1 model