Llama-3-8B-saiga-suzume-ties

Llama-3-8B-saiga-suzume-ties is a merge of the following models using LazyMergekit:

🧩 Configuration

models:
  - model: NousResearch/Meta-Llama-3-8B-Instruct
  - model: IlyaGusev/saiga_llama3_8b
    parameters:
      density: 0.5
      weight: 0.3
  - model: lightblue/suzume-llama-3-8B-multilingual
    parameters:
      density: 0.5
      weight: 0.5
merge_method: ties
base_model: NousResearch/Meta-Llama-3-8B-Instruct
parameters:
  normalize: true
dtype: float16

πŸ’» Usage

!pip install -qU transformers accelerate

from transformers import AutoTokenizer
import transformers
import torch

model = "d0rj/Llama-3-8B-saiga-suzume-ties"
messages = [{"role": "user", "content": "What is a large language model?"}]

tokenizer = AutoTokenizer.from_pretrained(model)
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
pipeline = transformers.pipeline(
    "text-generation",
    model=model,
    torch_dtype=torch.float16,
    device_map="auto",
)

outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])

or

import torch
from transformers import AutoTokenizer, GenerationConfig, AutoModelForCausalLM


model_id = "d0rj/Llama-3-8B-saiga-suzume-ties"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.float16,
    attn_implementation="flash_attention_2", # if you can
).to("cuda").eval()
generation_config = GenerationConfig(
    do_sample=True,
    top_k=30,
    top_p=0.9,
    temperature=1.04,
    repeatition_penalty=1.2,
    max_length=8192,
    max_new_tokens=512,
    min_new_tokens=2,
    pad_token_id=tokenizer.eos_token_id,
)

data = tokenizer.apply_chat_template(
    [
        {"role": "system", "content": "Π’Ρ‹ β€” Π‘Π°ΠΉΠ³Π°, русскоязычный автоматичСский ассистСнт. Π’Ρ‹ Ρ€Π°Π·Π³ΠΎΠ²Π°Ρ€ΠΈΠ²Π°Π΅ΡˆΡŒ с людьми ΠΈ помогаСшь ΠΈΠΌ."},
        {"role": "user", "content": "ΠŸΡ€ΠΈΠ²Π΅Ρ‚! Как Π΄Π΅Π»Π°?"},
        {"role": "assistant", "content": "ΠŸΡ€ΠΈΠ²Π΅Ρ‚! Бпасибо, Π΄Π΅Π»Π° Π½Π΅ΠΏΠ»ΠΎΡ…ΠΎ. Как Ρƒ тСбя? Π§Π΅ΠΌ ΠΌΠΎΠ³Ρƒ ΠΏΠΎΠΌΠΎΡ‡ΡŒ?"},
        {"role": "user", "content": "РасскаТи, ΠΊΠ°ΠΊ ΡΠ΄Π°Ρ‚ΡŒ сСссию, Ссли лСнь Π΄Π°ΠΆΠ΅ Π΄ΡƒΠΌΠ°Ρ‚ΡŒ ΠΎ Π½Π΅ΠΉ?"},
    ],
    return_tensors="pt",
    return_dict=True,
    add_generation_prompt=True,
).to(model.device)
with torch.inference_mode():
    output_ids = model.generate(
        **data,
        generation_config=generation_config
    )[0]
output_ids = output_ids[len(data["input_ids"][0]):]
output = tokenizer.decode(output_ids, skip_special_tokens=True)
print(output.strip())
Π‘Π΄Π°Ρ‡Π° сСссии β€” это Π²Π°ΠΆΠ½Ρ‹ΠΉ ΠΌΠΎΠΌΠ΅Π½Ρ‚ Π² ΠΆΠΈΠ·Π½ΠΈ ΠΊΠ°ΠΆΠ΄ΠΎΠ³ΠΎ студСнта. Если Π²Ρ‹ чувствуСтС лСнь Π΄ΡƒΠΌΠ°Ρ‚ΡŒ ΠΎ Π½Π΅ΠΉ, Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎ, стоит ΠΏΠΎΠΏΡ‹Ρ‚Π°Ρ‚ΡŒΡΡ Π½Π°ΠΉΡ‚ΠΈ ΠΌΠΎΡ‚ΠΈΠ²Π°Ρ†ΠΈΡŽ. Π’ΠΎΡ‚ нСсколько совСтов, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ ΠΌΠΎΠ³ΡƒΡ‚ ΠΏΠΎΠΌΠΎΡ‡ΡŒ:

1. **ΠžΠΏΡ€Π΅Π΄Π΅Π»ΠΈΡ‚Π΅ ΠΏΡ€ΠΈΡ‡ΠΈΠ½Ρ‹ своСй Π»Π΅Π½ΠΈ.** Если лСнь связана с Ρ‡Π΅ΠΌ-Ρ‚ΠΎ ΠΊΠΎΠ½ΠΊΡ€Π΅Ρ‚Π½Ρ‹ΠΌ, ΠΏΠΎΠΏΡ€ΠΎΠ±ΡƒΠΉΡ‚Π΅ ΠΎΠΏΡ€Π΅Π΄Π΅Π»ΠΈΡ‚ΡŒ ΠΈ ΡƒΡΡ‚Ρ€Π°Π½ΠΈΡ‚ΡŒ эту ΠΏΡ€ΠΎΠ±Π»Π΅ΠΌΡƒ. НапримСр, ΠΌΠΎΠΆΠ΅Ρ‚ Π±Ρ‹Ρ‚ΡŒ, Π²Ρ‹ нСдосыпаСтС, Π²Π΅Ρ‡Π½ΠΎ устаСтС ΠΈΠ»ΠΈ Ρ‡Ρ‚ΠΎ-Ρ‚ΠΎ Π΅Ρ‰Π΅.

2. **РассмотритС сСссию ΠΊΠ°ΠΊ Ρ‡Π°ΡΡ‚ΡŒ вашСй ΠΆΠΈΠ·Π½ΠΈ.** ПониманиС Ρ‚ΠΎΠ³ΠΎ, Ρ‡Ρ‚ΠΎ сСссия β€” это Π½Π΅ просто ΠΎΠ±ΡΠ·Π°Π½Π½ΠΎΡΡ‚ΡŒ, Π° Ρ‚Π°ΠΊΠΆΠ΅ Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΡΡ‚ΡŒ ΡƒΡ‡ΠΈΡ‚ΡŒΡΡ ΠΈ Ρ€Π°Π·Π²ΠΈΠ²Π°Ρ‚ΡŒΡΡ, ΠΌΠΎΠΆΠ΅Ρ‚ ΠΈΠ·ΠΌΠ΅Π½ΠΈΡ‚ΡŒ вашС ΠΎΡ‚Π½ΠΎΡˆΠ΅Π½ΠΈΠ΅ ΠΊ этому процСссу.

3. **Π Π°Π·Π±Π΅ΠΉΡ‚Π΅ Π·Π°Π΄Π°Ρ‡ΠΈ Π½Π° малСнькиС части.** Часто каТСтся, Ρ‡Ρ‚ΠΎ большая Π·Π°Π΄Π°Ρ‡Π° Π½Π΅ΠΏΡ€Π΅ΠΎΠ΄ΠΎΠ»ΠΈΠΌΠ°, Π½ΠΎ Ссли Ρ€Π°Π·Π΄Π΅Π»ΠΈΡ‚ΡŒ Π΅Π΅ Π½Π° мСньшиС, ΠΎΠ½ΠΈ станут Π±ΠΎΠ»Π΅Π΅ доступными.

4. **ΠŸΠ»Π°Π½ΠΈΡ€ΡƒΠΉΡ‚Π΅ ΠΈ ΠΎΡ€Π³Π°Π½ΠΈΠ·ΡƒΠΉΡ‚Π΅ своС врСмя.** Π Π°Π·Ρ€Π°Π±ΠΎΡ‚Π°ΠΉΡ‚Π΅ ΠΏΠ»Π°Π½ изучСния ΠΈ слСдуйтС Π΅ΠΌΡƒ. Π­Ρ‚ΠΎ ΠΏΠΎΠΌΠΎΠΆΠ΅Ρ‚ Π²Π°ΠΌ Π»ΡƒΡ‡ΡˆΠ΅ ΡƒΠΏΡ€Π°Π²Π»ΡΡ‚ΡŒ своим Π²Ρ€Π΅ΠΌΠ΅Π½Π΅ΠΌ ΠΈ ΠΌΠΎΡ‚ΠΈΠ²Π°Ρ†ΠΈΠ΅ΠΉ.

5. **ΠŸΠΎΠ»ΡƒΡ‡ΠΈΡ‚Π΅ ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΡƒ.** ΠŸΠΎΠ΄Π΅Π»ΠΈΡ‚Π΅ΡΡŒ своими трудностями с Π΄Ρ€ΡƒΠ·ΡŒΡΠΌΠΈ ΠΈΠ»ΠΈ сСмьСй. Они ΠΌΠΎΠ³ΡƒΡ‚ ΠΏΡ€Π΅Π΄Π»ΠΎΠΆΠΈΡ‚ΡŒ совСты ΠΈΠ»ΠΈ ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΡƒ.

6. **НайдитС способы ΡΠ΄Π΅Π»Π°Ρ‚ΡŒ ΠΈΠ·ΡƒΡ‡Π΅Π½ΠΈΠ΅ интСрСсным.** ΠœΠΎΠΆΠ΅Ρ‚ Π±Ρ‹Ρ‚ΡŒ, Π½Π°ΠΉΠ΄ΠΈΡ‚Π΅ Ρ‡Ρ‚ΠΎ-Ρ‚ΠΎ, Ρ‡Ρ‚ΠΎ Π²Π°ΠΌ нравится, ΠΈ Π½Π°Ρ‡Π½ΠΈΡ‚Π΅ ΠΈΠ·ΡƒΡ‡Π°Ρ‚ΡŒ вмСстС с этим. Π­Ρ‚ΠΎ ΠΏΠΎΠΌΠΎΠΆΠ΅Ρ‚ ΡΠ΄Π΅Π»Π°Ρ‚ΡŒ процСсс Π±ΠΎΠ»Π΅Π΅ приятным ΠΈ стимулируСт вас ΠΊ ΠΎΠ±ΡƒΡ‡Π΅Π½ΠΈΡŽ.

7. **Π‘ΠΎΠ·Π΄Π°ΠΉΡ‚Π΅ для сСбя Π½Π°Π³Ρ€Π°Π΄Ρ‹ Π·Π° Π²Ρ‹ΠΏΠΎΠ»Π½Π΅Π½ΠΈΠ΅ Π·Π°Π΄Π°Ρ‡.** Π­Ρ‚ΠΎ ΠΌΠΎΠΆΠ΅Ρ‚ Π±Ρ‹Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ-Ρ‚ΠΎ простоС, Π½Π°ΠΏΡ€ΠΈΠΌΠ΅Ρ€, ΠΏΠΎΡΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ свою Π»ΡŽΠ±ΠΈΠΌΡƒΡŽ ΡΠ΅Ρ€ΠΈΡŽ ΠΈΠ»ΠΈ ΡΡ…ΠΎΠ΄ΠΈΡ‚ΡŒ Π½Π° ΠΏΡ€ΠΎΠ³ΡƒΠ»ΠΊΡƒ. Π’Π°ΠΊΠΈΠΌ ΠΎΠ±Ρ€Π°Π·ΠΎΠΌ, Π²Ρ‹ Π±ΡƒΠ΄Π΅Ρ‚Π΅ ΠΌΠΎΡ‚ΠΈΠ²ΠΈΡ€ΠΎΠ²Π°Π½Ρ‹ ΠΏΡ€ΠΎΠ΄ΠΎΠ»ΠΆΠ°Ρ‚ΡŒ ΠΈΠ·ΡƒΡ‡Π΅Π½ΠΈΠ΅.

8. **ΠŸΠΎΠΌΠ½ΠΈΡ‚Π΅ ΠΎ своих цСлях.** ДолгосрочныС Ρ†Π΅Π»ΠΈ ΠΌΠΎΠ³ΡƒΡ‚ ΡΠ»ΡƒΠΆΠΈΡ‚ΡŒ Ρ…ΠΎΡ€ΠΎΡˆΠΈΠΌ ΠΌΠΎΡ‚ΠΈΠ²Π°Ρ†ΠΈΠΎΠ½Π½Ρ‹ΠΌ Ρ„Π°ΠΊΡ‚ΠΎΡ€ΠΎΠΌ. ΠŸΠΎΠΌΠ½ΠΈΡ‚Π΅, Ρ‡Ρ‚ΠΎ каТдая сСссия β€” это шаг ΠΊ Π΄ΠΎΡΡ‚ΠΈΠΆΠ΅Π½ΠΈΡŽ Π²Π°ΡˆΠΈΡ… ΠΌΠ΅Ρ‡Ρ‚.

ΠŸΠΎΠΌΠ½ΠΈΡ‚Π΅, Ρ‡Ρ‚ΠΎ самоС Π³Π»Π°Π²Π½ΠΎΠ΅ β€” это Π½Π΅ сдача сСссии, Π° процСсс обучСния ΠΈ развития. Π‘ΡƒΠ΄ΡŒΡ‚Π΅ Π΄ΠΎΠ±Ρ€Ρ‹ ΠΊ сСбС ΠΈ Π½Π΅ Π·Π°Π±Ρ‹Π²Π°ΠΉΡ‚Π΅ ΠΎ своих успСхах
Downloads last month
39
Safetensors
Model size
8.03B params
Tensor type
F16
Β·
Inference Providers NEW
Input a message to start chatting with d0rj/Llama-3-8B-saiga-suzume-ties.

Model tree for d0rj/Llama-3-8B-saiga-suzume-ties

Spaces using d0rj/Llama-3-8B-saiga-suzume-ties 7