vltnmmdv commited on
Commit
3a59d60
·
verified ·
1 Parent(s): 272b0aa

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +55 -3
README.md CHANGED
@@ -1,3 +1,55 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ base_model:
4
+ - ai-sage/GigaChat-20B-A3B-instruct-v1.5
5
+ language:
6
+ - ru
7
+ - en
8
+ ---
9
+ # GigaChat-20B-A3B-instruct int8
10
+
11
+ Диалоговая модель из семейства моделей GigaChat, основная на [ai-sage/GigaChat-20B-A3B-instruct-v1.5](https://huggingface.co/ai-sage/GigaChat-20B-A3B-instruct-v1.5). Поддерживает контекст в 131 тысячу токенов.
12
+
13
+ Представляем обновленную версию с улучшенным alignment, что привело к значительному росту метрик арен:
14
+ - Arena Hard RU: 20.8 → 29.6 (+8.8)
15
+ - Arena General: 41.1 → 49.1 (+9)
16
+ - остальные метрики на тех же значениях
17
+
18
+
19
+ Больше подробностей в [хабр статье](https://habr.com/en/companies/sberdevices/articles/865996/).
20
+
21
+ ## Доступность
22
+
23
+ **Для данной модели также доступны веса в [bf16](https://huggingface.co/ai-sage/GigaChat-20B-A3B-instruct-v1.5-bf16) и [fp32](https://huggingface.co/ai-sage/GigaChat-20B-A3B-instruct-v1.5)**
24
+
25
+ А также:
26
+ - GGUF версии ([bf16, q8, q6, q5, q4](https://huggingface.co/ai-sage/GigaChat-20B-A3B-instruct-v1.5-GGUF))
27
+ - Ollama ([bf16, q8, q6, q5, q4](https://ollama.com/infidelis/GigaChat-20B-A3B-instruct-v1.5))
28
+
29
+
30
+
31
+ ## Пример использования через transformers
32
+
33
+ ```bash
34
+ pip install --upgrade transformers torch accelerate bitsandbytes
35
+ ```
36
+
37
+
38
+ ```python
39
+ import torch
40
+ from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig
41
+
42
+ model_name = "ai-sage/GigaChat-20B-A3B-instruct-int8"
43
+ tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
44
+ model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True, device_map="auto")
45
+ model.generation_config = GenerationConfig.from_pretrained(model_name)
46
+
47
+ messages = [
48
+ {"role": "user", "content": "Докажи теорему о неподвижной точке"}
49
+ ]
50
+ input_tensor = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt")
51
+ outputs = model.generate(input_tensor.to(model.device))
52
+
53
+ result = tokenizer.decode(outputs[0][input_tensor.shape[1]:], skip_special_tokens=False)
54
+ print(result)
55
+ ```