sambanova-llama2-100-gguf-q8

Bu model, cello78/sambanova-llama2-100 modelinin 8-bit quantized GGUF versiyonudur.

📋 Model Detayları

  • Base Model: cello78/sambanova-llama2-100
  • Quantization: 8-bit (Q8_0)
  • Format: GGUF
  • Boyut: Orijinal modelden ~%50 daha küçük
  • Uyumluluk: llama.cpp, Ollama, LM Studio

🚀 Kullanım

llama-cpp-python ile:

from llama_cpp import Llama
llm = Llama( model_path="model-q8_0.gguf", n_ctx=2048, # Context length n_threads=8, # CPU thread sayısı )
Metin üret
prompt = "Merhaba, nasılsın?" output = llm(prompt, max_tokens=100, temperature=0.7) print(output['choices'][0]['text'])

### Ollama ile:

```bash
# Modeli indir
ollama pull cello78/sambanova-llama2-100-gguf-q8
Kullan
ollama run cello78/sambanova-llama2-100-gguf-q8 "Merhaba dünya!"

### LM Studio ile:

1. LM Studio'yu açın
2. "Search" kısmına `cello78/sambanova-llama2-100-gguf-q8` yazın
3. Modeli indirin ve kullanın

## ⚡ Performans

- **Hız**: Orijinal modelden ~2x daha hızlı
- **Bellek**: ~%50 daha az RAM kullanımı
- **Kalite**: Minimal kalite kaybı

## 🔧 Teknik Bilgiler

- **Quantization Method**: Q8_0 (8-bit integer quantization)
- **Conversion Tool**: llama.cpp
- **Original Precision**: FP16
- **Target Precision**: INT8

## 📄 Lisans

Bu model orijinal modelin lisansını takip eder.

## 🙏 Teşekkürler

- Orijinal model: [cello78/sambanova-llama2-100](https://huggingface.co/cello78/sambanova-llama2-100)
- Quantization: [llama.cpp](https://github.com/ggerganov/llama.cpp)
Downloads last month
2
GGUF
Model size
6.95B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for cello78/sambanova-llama2-100-gguf-q8

Quantized
(1)
this model