Update README.md
Browse files
README.md
CHANGED
@@ -27,16 +27,32 @@ We present Meltemi-7B-Instruct-v1 Large Language Model (LLM), an instruct fine-t
|
|
27 |
|
28 |
|
29 |
# Instruction format
|
30 |
-
The prompt
|
|
|
31 |
|
32 |
```
|
33 |
-
|
34 |
-
|
35 |
-
|
36 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
37 |
|
38 |
-
|
39 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
40 |
|
41 |
# Evaluation
|
42 |
|
|
|
27 |
|
28 |
|
29 |
# Instruction format
|
30 |
+
The prompt format is the same as the [Zephyr](https://huggingface.co/HuggingFaceH4/zephyr-7b-beta) format and can be
|
31 |
+
utilized through the tokenizer's [chat template](https://huggingface.co/docs/transformers/main/chat_templating) functionality as follows:
|
32 |
|
33 |
```
|
34 |
+
from transformers import AutoModelForCausalLM, AutoTokenizer
|
35 |
+
|
36 |
+
device = "cuda" # the device to load the model onto
|
37 |
+
|
38 |
+
model = AutoModelForCausalLM.from_pretrained("ilsp/Meltemi-7B-Instruct-v1")
|
39 |
+
tokenizer = AutoTokenizer.from_pretrained("ilsp/Meltemi-7B-Instruct-v1")
|
40 |
+
|
41 |
+
messages = [
|
42 |
+
{"role": "user", "content": "Πες μου αν έχεις συνείδηση."},
|
43 |
+
{"role": "assistant", "content": "Ως μοντέλο γλώσσας AI, δεν έχω τη δυνατότητα να αντιληφθώ ή να βιώσω συναισθήματα όπως η συνείδηση ή η επίγνωση. Ωστόσο, μπορώ να σας βοηθήσω με οποιεσδήποτε ερωτήσεις μπορεί να έχετε σχετικά με την τεχνητή νοημοσύνη και τις εφαρμογές της."},
|
44 |
+
{"role": "user", "content": "Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη;"}
|
45 |
+
]
|
46 |
|
47 |
+
prompt = tokenizer.apply_chat_template(messages, return_tensors="pt")
|
48 |
|
49 |
+
input_prompt = prompt.to(device)
|
50 |
+
model.to(device)
|
51 |
+
|
52 |
+
outputs = model.generate(input_prompt, max_new_tokens=256, do_sample=True)
|
53 |
+
|
54 |
+
print(tokenizer.batch_decode(outputs)[0])
|
55 |
+
```
|
56 |
|
57 |
# Evaluation
|
58 |
|