FlorianJc commited on
Commit
f0995e2
·
1 Parent(s): 14486a1

Upload folder using huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +30 -0
README.md CHANGED
@@ -1,3 +1,33 @@
1
  ---
2
  license: apache-2.0
 
 
 
 
 
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
  license: apache-2.0
3
+ language:
4
+ - fr
5
+ pipeline_tag: text-generation
6
+ tags:
7
+ - mistral
8
+ - finetuned
9
+ - french
10
+ - vigogne
11
  ---
12
+
13
+ # Vigostral-7b-Chat GGUF
14
+ Conversion du modèle vigostral-7b-chat au format GGUF
15
+
16
+ Lien du modèle original:
17
+ https://huggingface.co/bofenghuang/vigostral-7b-chat/
18
+
19
+ Le projet llama.cpp (pour l'inférence):
20
+ https://github.com/ggerganov/llama.cpp/
21
+
22
+ Les modèles ont dans leur nom un suffixe qui définit la quantification.
23
+
24
+ La perte de qualité est tirée de la documentation de llama.cpp et a été calculée par la variation de la perplexité (ppl) sur le modèle LLaMA-v1-7B.
25
+ Elle n'est donc fournie ici que pour donner une approximation de la perte rééle.
26
+
27
+ | Méthode de quantification | Taille du fichier | Perte | Téléchargement |
28
+ | ---- | ---- | ---- | ---- |
29
+ | COPY | 13,5 Go | Aucune | https://huggingface.co/FlorianJc/Vigostral-7b-Chat-GGUF/blob/main/vigostral-7b-chat-COPY.gguf |
30
+ | Q8_0 | 7,2 Go | +0.0004 ppl @ LLaMA-v1-7B | https://huggingface.co/FlorianJc/Vigostral-7b-Chat-GGUF/blob/main/vigostral-7b-chat-Q8_0.gguf |
31
+ | Q6_K | 5,5 Go | -0.0008 ppl @ LLaMA-v1-7B | https://huggingface.co/FlorianJc/Vigostral-7b-Chat-GGUF/blob/main/vigostral-7b-chat-Q6_K.gguf |
32
+ | Q5_K_M | 4,8 Go | +0.0122 ppl @ LLaMA-v1-7B | https://huggingface.co/FlorianJc/Vigostral-7b-Chat-GGUF/blob/main/vigostral-7b-chat-Q5_K_M.gguf |
33
+ | Q4_K_M | 4,1 Go | +0.0532 ppl @ LLaMA-v1-7B | https://huggingface.co/FlorianJc/Vigostral-7b-Chat-GGUF/blob/main/vigostral-7b-chat-Q4_K_M.gguf |