Ninja-v1-RP-expressive-v2

GGUF版はこちら/Click here for the GGUF version

概要

This is a merge of pre-trained language models created using mergekit.

Aratako/Ninja-v1-RP-expressiveと同じコンセプトで、ライセンスがCC-BY-NCのものがマージ元に含まれないようにレシピを変更したモデルです。

本モデル作成の際のChat Vectorには以下の3モデルを利用しています。

また、最終的なモデルマージの際にModel Breadcrumbsという手法を使っています。

その他の部分はAratako/Ninja-v1-RP-expressiveとほぼ同じなので、詳しい概要を知りたい方はそちらのモデルの説明文をご確認ください。

Downloads last month
78
Safetensors
Model size
7.24B params
Tensor type
BF16
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for Aratako/Ninja-v1-RP-expressive-v2

Base model

Elizezen/Antler-7B
Finetuned
(9)
this model
Quantizations
1 model

Collection including Aratako/Ninja-v1-RP-expressive-v2