Llama-3-8B-saiga-suzume-ties
Llama-3-8B-saiga-suzume-ties is a merge of the following models using LazyMergekit:
π§© Configuration
models:
- model: NousResearch/Meta-Llama-3-8B-Instruct
- model: IlyaGusev/saiga_llama3_8b
parameters:
density: 0.5
weight: 0.3
- model: lightblue/suzume-llama-3-8B-multilingual
parameters:
density: 0.5
weight: 0.5
merge_method: ties
base_model: NousResearch/Meta-Llama-3-8B-Instruct
parameters:
normalize: true
dtype: float16
π» Usage
!pip install -qU transformers accelerate
from transformers import AutoTokenizer
import transformers
import torch
model = "d0rj/Llama-3-8B-saiga-suzume-ties"
messages = [{"role": "user", "content": "What is a large language model?"}]
tokenizer = AutoTokenizer.from_pretrained(model)
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
pipeline = transformers.pipeline(
"text-generation",
model=model,
torch_dtype=torch.float16,
device_map="auto",
)
outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])
or
import torch
from transformers import AutoTokenizer, GenerationConfig, AutoModelForCausalLM
model_id = "d0rj/Llama-3-8B-saiga-suzume-ties"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.float16,
attn_implementation="flash_attention_2", # if you can
).to("cuda").eval()
generation_config = GenerationConfig(
do_sample=True,
top_k=30,
top_p=0.9,
temperature=1.04,
repeatition_penalty=1.2,
max_length=8192,
max_new_tokens=512,
min_new_tokens=2,
pad_token_id=tokenizer.eos_token_id,
)
data = tokenizer.apply_chat_template(
[
{"role": "system", "content": "Π’Ρ β Π‘Π°ΠΉΠ³Π°, ΡΡΡΡΠΊΠΎΡΠ·ΡΡΠ½ΡΠΉ Π°Π²ΡΠΎΠΌΠ°ΡΠΈΡΠ΅ΡΠΊΠΈΠΉ Π°ΡΡΠΈΡΡΠ΅Π½Ρ. Π’Ρ ΡΠ°Π·Π³ΠΎΠ²Π°ΡΠΈΠ²Π°Π΅ΡΡ Ρ Π»ΡΠ΄ΡΠΌΠΈ ΠΈ ΠΏΠΎΠΌΠΎΠ³Π°Π΅ΡΡ ΠΈΠΌ."},
{"role": "user", "content": "ΠΡΠΈΠ²Π΅Ρ! ΠΠ°ΠΊ Π΄Π΅Π»Π°?"},
{"role": "assistant", "content": "ΠΡΠΈΠ²Π΅Ρ! Π‘ΠΏΠ°ΡΠΈΠ±ΠΎ, Π΄Π΅Π»Π° Π½Π΅ΠΏΠ»ΠΎΡ
ΠΎ. ΠΠ°ΠΊ Ρ ΡΠ΅Π±Ρ? Π§Π΅ΠΌ ΠΌΠΎΠ³Ρ ΠΏΠΎΠΌΠΎΡΡ?"},
{"role": "user", "content": "Π Π°ΡΡΠΊΠ°ΠΆΠΈ, ΠΊΠ°ΠΊ ΡΠ΄Π°ΡΡ ΡΠ΅ΡΡΠΈΡ, Π΅ΡΠ»ΠΈ Π»Π΅Π½Ρ Π΄Π°ΠΆΠ΅ Π΄ΡΠΌΠ°ΡΡ ΠΎ Π½Π΅ΠΉ?"},
],
return_tensors="pt",
return_dict=True,
add_generation_prompt=True,
).to(model.device)
with torch.inference_mode():
output_ids = model.generate(
**data,
generation_config=generation_config
)[0]
output_ids = output_ids[len(data["input_ids"][0]):]
output = tokenizer.decode(output_ids, skip_special_tokens=True)
print(output.strip())
Π‘Π΄Π°ΡΠ° ΡΠ΅ΡΡΠΈΠΈ β ΡΡΠΎ Π²Π°ΠΆΠ½ΡΠΉ ΠΌΠΎΠΌΠ΅Π½Ρ Π² ΠΆΠΈΠ·Π½ΠΈ ΠΊΠ°ΠΆΠ΄ΠΎΠ³ΠΎ ΡΡΡΠ΄Π΅Π½ΡΠ°. ΠΡΠ»ΠΈ Π²Ρ ΡΡΠ²ΡΡΠ²ΡΠ΅ΡΠ΅ Π»Π΅Π½Ρ Π΄ΡΠΌΠ°ΡΡ ΠΎ Π½Π΅ΠΉ, Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎ, ΡΡΠΎΠΈΡ ΠΏΠΎΠΏΡΡΠ°ΡΡΡΡ Π½Π°ΠΉΡΠΈ ΠΌΠΎΡΠΈΠ²Π°ΡΠΈΡ. ΠΠΎΡ Π½Π΅ΡΠΊΠΎΠ»ΡΠΊΠΎ ΡΠΎΠ²Π΅ΡΠΎΠ², ΠΊΠΎΡΠΎΡΡΠ΅ ΠΌΠΎΠ³ΡΡ ΠΏΠΎΠΌΠΎΡΡ:
1. **ΠΠΏΡΠ΅Π΄Π΅Π»ΠΈΡΠ΅ ΠΏΡΠΈΡΠΈΠ½Ρ ΡΠ²ΠΎΠ΅ΠΉ Π»Π΅Π½ΠΈ.** ΠΡΠ»ΠΈ Π»Π΅Π½Ρ ΡΠ²ΡΠ·Π°Π½Π° Ρ ΡΠ΅ΠΌ-ΡΠΎ ΠΊΠΎΠ½ΠΊΡΠ΅ΡΠ½ΡΠΌ, ΠΏΠΎΠΏΡΠΎΠ±ΡΠΉΡΠ΅ ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΡΡ ΠΈ ΡΡΡΡΠ°Π½ΠΈΡΡ ΡΡΡ ΠΏΡΠΎΠ±Π»Π΅ΠΌΡ. ΠΠ°ΠΏΡΠΈΠΌΠ΅Ρ, ΠΌΠΎΠΆΠ΅Ρ Π±ΡΡΡ, Π²Ρ Π½Π΅Π΄ΠΎΡΡΠΏΠ°Π΅ΡΠ΅, Π²Π΅ΡΠ½ΠΎ ΡΡΡΠ°Π΅ΡΠ΅ ΠΈΠ»ΠΈ ΡΡΠΎ-ΡΠΎ Π΅ΡΠ΅.
2. **Π Π°ΡΡΠΌΠΎΡΡΠΈΡΠ΅ ΡΠ΅ΡΡΠΈΡ ΠΊΠ°ΠΊ ΡΠ°ΡΡΡ Π²Π°ΡΠ΅ΠΉ ΠΆΠΈΠ·Π½ΠΈ.** ΠΠΎΠ½ΠΈΠΌΠ°Π½ΠΈΠ΅ ΡΠΎΠ³ΠΎ, ΡΡΠΎ ΡΠ΅ΡΡΠΈΡ β ΡΡΠΎ Π½Π΅ ΠΏΡΠΎΡΡΠΎ ΠΎΠ±ΡΠ·Π°Π½Π½ΠΎΡΡΡ, Π° ΡΠ°ΠΊΠΆΠ΅ Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΡΡΡ ΡΡΠΈΡΡΡΡ ΠΈ ΡΠ°Π·Π²ΠΈΠ²Π°ΡΡΡΡ, ΠΌΠΎΠΆΠ΅Ρ ΠΈΠ·ΠΌΠ΅Π½ΠΈΡΡ Π²Π°ΡΠ΅ ΠΎΡΠ½ΠΎΡΠ΅Π½ΠΈΠ΅ ΠΊ ΡΡΠΎΠΌΡ ΠΏΡΠΎΡΠ΅ΡΡΡ.
3. **Π Π°Π·Π±Π΅ΠΉΡΠ΅ Π·Π°Π΄Π°ΡΠΈ Π½Π° ΠΌΠ°Π»Π΅Π½ΡΠΊΠΈΠ΅ ΡΠ°ΡΡΠΈ.** Π§Π°ΡΡΠΎ ΠΊΠ°ΠΆΠ΅ΡΡΡ, ΡΡΠΎ Π±ΠΎΠ»ΡΡΠ°Ρ Π·Π°Π΄Π°ΡΠ° Π½Π΅ΠΏΡΠ΅ΠΎΠ΄ΠΎΠ»ΠΈΠΌΠ°, Π½ΠΎ Π΅ΡΠ»ΠΈ ΡΠ°Π·Π΄Π΅Π»ΠΈΡΡ Π΅Π΅ Π½Π° ΠΌΠ΅Π½ΡΡΠΈΠ΅, ΠΎΠ½ΠΈ ΡΡΠ°Π½ΡΡ Π±ΠΎΠ»Π΅Π΅ Π΄ΠΎΡΡΡΠΏΠ½ΡΠΌΠΈ.
4. **ΠΠ»Π°Π½ΠΈΡΡΠΉΡΠ΅ ΠΈ ΠΎΡΠ³Π°Π½ΠΈΠ·ΡΠΉΡΠ΅ ΡΠ²ΠΎΠ΅ Π²ΡΠ΅ΠΌΡ.** Π Π°Π·ΡΠ°Π±ΠΎΡΠ°ΠΉΡΠ΅ ΠΏΠ»Π°Π½ ΠΈΠ·ΡΡΠ΅Π½ΠΈΡ ΠΈ ΡΠ»Π΅Π΄ΡΠΉΡΠ΅ Π΅ΠΌΡ. ΠΡΠΎ ΠΏΠΎΠΌΠΎΠΆΠ΅Ρ Π²Π°ΠΌ Π»ΡΡΡΠ΅ ΡΠΏΡΠ°Π²Π»ΡΡΡ ΡΠ²ΠΎΠΈΠΌ Π²ΡΠ΅ΠΌΠ΅Π½Π΅ΠΌ ΠΈ ΠΌΠΎΡΠΈΠ²Π°ΡΠΈΠ΅ΠΉ.
5. **ΠΠΎΠ»ΡΡΠΈΡΠ΅ ΠΏΠΎΠ΄Π΄Π΅ΡΠΆΠΊΡ.** ΠΠΎΠ΄Π΅Π»ΠΈΡΠ΅ΡΡ ΡΠ²ΠΎΠΈΠΌΠΈ ΡΡΡΠ΄Π½ΠΎΡΡΡΠΌΠΈ Ρ Π΄ΡΡΠ·ΡΡΠΌΠΈ ΠΈΠ»ΠΈ ΡΠ΅ΠΌΡΠ΅ΠΉ. ΠΠ½ΠΈ ΠΌΠΎΠ³ΡΡ ΠΏΡΠ΅Π΄Π»ΠΎΠΆΠΈΡΡ ΡΠΎΠ²Π΅ΡΡ ΠΈΠ»ΠΈ ΠΏΠΎΠ΄Π΄Π΅ΡΠΆΠΊΡ.
6. **ΠΠ°ΠΉΠ΄ΠΈΡΠ΅ ΡΠΏΠΎΡΠΎΠ±Ρ ΡΠ΄Π΅Π»Π°ΡΡ ΠΈΠ·ΡΡΠ΅Π½ΠΈΠ΅ ΠΈΠ½ΡΠ΅ΡΠ΅ΡΠ½ΡΠΌ.** ΠΠΎΠΆΠ΅Ρ Π±ΡΡΡ, Π½Π°ΠΉΠ΄ΠΈΡΠ΅ ΡΡΠΎ-ΡΠΎ, ΡΡΠΎ Π²Π°ΠΌ Π½ΡΠ°Π²ΠΈΡΡΡ, ΠΈ Π½Π°ΡΠ½ΠΈΡΠ΅ ΠΈΠ·ΡΡΠ°ΡΡ Π²ΠΌΠ΅ΡΡΠ΅ Ρ ΡΡΠΈΠΌ. ΠΡΠΎ ΠΏΠΎΠΌΠΎΠΆΠ΅Ρ ΡΠ΄Π΅Π»Π°ΡΡ ΠΏΡΠΎΡΠ΅ΡΡ Π±ΠΎΠ»Π΅Π΅ ΠΏΡΠΈΡΡΠ½ΡΠΌ ΠΈ ΡΡΠΈΠΌΡΠ»ΠΈΡΡΠ΅Ρ Π²Π°Ρ ΠΊ ΠΎΠ±ΡΡΠ΅Π½ΠΈΡ.
7. **Π‘ΠΎΠ·Π΄Π°ΠΉΡΠ΅ Π΄Π»Ρ ΡΠ΅Π±Ρ Π½Π°Π³ΡΠ°Π΄Ρ Π·Π° Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΠ΅ Π·Π°Π΄Π°Ρ.** ΠΡΠΎ ΠΌΠΎΠΆΠ΅Ρ Π±ΡΡΡ ΡΡΠΎ-ΡΠΎ ΠΏΡΠΎΡΡΠΎΠ΅, Π½Π°ΠΏΡΠΈΠΌΠ΅Ρ, ΠΏΠΎΡΠΌΠΎΡΡΠ΅ΡΡ ΡΠ²ΠΎΡ Π»ΡΠ±ΠΈΠΌΡΡ ΡΠ΅ΡΠΈΡ ΠΈΠ»ΠΈ ΡΡ
ΠΎΠ΄ΠΈΡΡ Π½Π° ΠΏΡΠΎΠ³ΡΠ»ΠΊΡ. Π’Π°ΠΊΠΈΠΌ ΠΎΠ±ΡΠ°Π·ΠΎΠΌ, Π²Ρ Π±ΡΠ΄Π΅ΡΠ΅ ΠΌΠΎΡΠΈΠ²ΠΈΡΠΎΠ²Π°Π½Ρ ΠΏΡΠΎΠ΄ΠΎΠ»ΠΆΠ°ΡΡ ΠΈΠ·ΡΡΠ΅Π½ΠΈΠ΅.
8. **ΠΠΎΠΌΠ½ΠΈΡΠ΅ ΠΎ ΡΠ²ΠΎΠΈΡ
ΡΠ΅Π»ΡΡ
.** ΠΠΎΠ»Π³ΠΎΡΡΠΎΡΠ½ΡΠ΅ ΡΠ΅Π»ΠΈ ΠΌΠΎΠ³ΡΡ ΡΠ»ΡΠΆΠΈΡΡ Ρ
ΠΎΡΠΎΡΠΈΠΌ ΠΌΠΎΡΠΈΠ²Π°ΡΠΈΠΎΠ½Π½ΡΠΌ ΡΠ°ΠΊΡΠΎΡΠΎΠΌ. ΠΠΎΠΌΠ½ΠΈΡΠ΅, ΡΡΠΎ ΠΊΠ°ΠΆΠ΄Π°Ρ ΡΠ΅ΡΡΠΈΡ β ΡΡΠΎ ΡΠ°Π³ ΠΊ Π΄ΠΎΡΡΠΈΠΆΠ΅Π½ΠΈΡ Π²Π°ΡΠΈΡ
ΠΌΠ΅ΡΡ.
ΠΠΎΠΌΠ½ΠΈΡΠ΅, ΡΡΠΎ ΡΠ°ΠΌΠΎΠ΅ Π³Π»Π°Π²Π½ΠΎΠ΅ β ΡΡΠΎ Π½Π΅ ΡΠ΄Π°ΡΠ° ΡΠ΅ΡΡΠΈΠΈ, Π° ΠΏΡΠΎΡΠ΅ΡΡ ΠΎΠ±ΡΡΠ΅Π½ΠΈΡ ΠΈ ΡΠ°Π·Π²ΠΈΡΠΈΡ. ΠΡΠ΄ΡΡΠ΅ Π΄ΠΎΠ±ΡΡ ΠΊ ΡΠ΅Π±Π΅ ΠΈ Π½Π΅ Π·Π°Π±ΡΠ²Π°ΠΉΡΠ΅ ΠΎ ΡΠ²ΠΎΠΈΡ
ΡΡΠΏΠ΅Ρ
Π°Ρ
- Downloads last month
- 39
Model tree for d0rj/Llama-3-8B-saiga-suzume-ties
Merge model
this model