Mallam 5B 20k Instructions v2 - GGUF
- Model creator: mesolotica
- Original model: Mallam 5B 20k Instructions v2
Pengenalan
Repo ini mengandungi model berformat GGUF, iaitu format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana aplikasi ini kurang kebergantungan dengan software/library lain menjadikan ia ringan berbanding rata-rata aplikasi python.
Prompt template: Mistral
<s>[INST] This is a system prompt.
This is the first user input. [/INST] This is the first assistant response.
</s>[INST] This is the second user input. [/INST]
Fail yang diberikan
Sila rujuk Files and versions
Penghargaan
Terima kasih kepada Husein Zolkepli dan keseluruhan team mesolotica!
Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.
- Downloads last month
- 30
Hardware compatibility
Log In
to view the estimation
2-bit
3-bit
4-bit
5-bit
6-bit
8-bit
32-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
๐
Ask for provider support
Model tree for prsyahmi/mallam-5b-20k-instructions-v2-GGUF
Base model
mesolitica/mallam-5b-20k-instructions-v2