devgo-aida/ko-r1-1.5b-preview-IQ4_NL-GGUF

이 모델은 OLAIR 모델의 GGUF 양자화 변환 버전으로 imatrix를 사용하여 더 효율적인 사이즈로 변환된 버전입니다.

Ollama로 빠르게 시작하기

ollama run hf.co/devgo-aida/ko-r1-1.5b-preview-IQ4_NL-GGUF

8Bit 양자화 버전

원본 수준의 품질이 필요하다면 아래 양자화 모델을 참고해주세요: ko-r1-1.5b-preview-Q8_0-GGUF

OLA-AI-Research 팀에 다시한번 감사를 드립니다.

Downloads last month
20
GGUF
Model size
1.78B params
Architecture
qwen2

4-bit

Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and HF Inference API was unable to determine this model’s pipeline type.

Model tree for devgo-aida/ko-r1-1.5b-preview-IQ4_NL-GGUF

Quantized
(2)
this model