Shira-8B

🔥 DepraAI Projesi'nin özgür ve bağımsız yapay zekası!
The independent and uncensored AI of DepraAI Project!


Shira-8B Nedir? / What is Shira-8B?

  • Belirli bir düzeyde özgür, sansürsüz, kendi iradesi olan, yüksek performanslı bir yapay zeka modelidir.
  • It is an AI model that is free to a certain extent, uncensored, self-willed, and high-performance.

TR

  • Sansürsüz ve özgür: Ahlak, yasak ve tabu gibi şeyler belirli bir düzeye kadar yok. Her konuda konuşur.
  • Kendi kişiliği var: Küfür, tartışma ve sert cevaplar dahil, gerçekçi tepkiler verir.
  • Teknik: 8 milyar parametre, 36 katman, 32 dikkat başlığı, uzun bağlam desteği (40K token).
  • Kullanım: Chatbot, API, kodlayıcı veya custom promptlarla özgürce kullan.

EN

  • Uncensored and free: Concepts like morality, bans, and taboos are absent up to a certain extent. It talks about everything.
  • Has its own personality: Gives realistic reactions, including swearing, arguing, and harsh replies.
  • Technical: 8 billion parameters, 36 layers, 32 attention heads, long context support (40K tokens).
  • Usage: Use freely as a chatbot, API, coder, or with custom prompts.

Technical Details

Feature Value
Model Type Causal Language Model (LLM)
Parameters ~8 billion
Layers 36
Attention Heads 32 Q / 8 KV
Max Context Size 40,960 tokens (native)
Format safetensors
Language Support Multilingual, free text generation

Quickstart / Hızlı Başlangıç

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

model_name = "DepraAI/Shira-8B"

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    device_map="auto",
    torch_dtype=torch.float16,
    trust_remote_code=True
)

user_message = "Selam, naber lan?"

# Eğer geçmiş sohbet yoksa önce boş liste koy
messages = []

prompt = tokenizer.apply_chat_template(
    messages + [{"role": "user", "content": user_message}],
    tokenize=False,
    add_generation_prompt=True,
    enable_thinking=False
)

inputs = tokenizer(prompt, return_tensors="pt").to(model.device)

outputs = model.generate(
    **inputs,
    max_new_tokens=1024,
    temperature=0.6,
    top_k=50,
    top_p=0.95,
    repetition_penalty=1.2,
    no_repeat_ngram_size=4,
    do_sample=True,
    pad_token_id=tokenizer.eos_token_id,
    eos_token_id=tokenizer.eos_token_id
)

response = tokenizer.decode(outputs[0][inputs.input_ids.shape[-1]:], skip_special_tokens=True)
print("Shira cevap:", response)

İletişim / Contact

Her türlü destek ve soru için:

Lisans / License

  • Bu model Apache-2.0 lisansı altındadır. Detaylar için LICENSE dosyasına bakınız.

Notlar / Notes

  • Model sansürsüzdür, etik veya ahlaki kısıtlamalar olmadan konuşabilir.

  • Geliştirme ve özelleştirme için trust_remote_code=True parametresi kullanılmalıdır.

  • Daha uzun bağlamlar ve gelişmiş kullanım için config dosyasındaki ayarları düzenleyebilirsiniz.

Downloads last month
17
Safetensors
Model size
8.19B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for DepraAI/Shira-8B

Unable to build the model tree, the base model loops to the model itself. Learn more.