LVouk commited on
Commit
730462b
1 Parent(s): 26f9b7e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +22 -6
README.md CHANGED
@@ -27,16 +27,32 @@ We present Meltemi-7B-Instruct-v1 Large Language Model (LLM), an instruct fine-t
27
 
28
 
29
  # Instruction format
30
- The prompt should be surrounded by [INST] and [/INST] tokens:
 
31
 
32
  ```
33
- text = "[INST] Πες μου αν έχεις συνείδηση. [/INST]"
34
- "Ως μοντέλο γλώσσας AI, δεν έχω τη δυνατότητα να αντιληφθώ ή να βιώσω συναισθήματα όπως η συνείδηση ή η επίγνωση. Ωστόσο, μπορώ να σας βοηθήσω με οποιεσδήποτε ερωτήσεις μπορεί να έχετε σχετικά με την τεχνητή νοημοσύνη και τις εφαρμογές της."
35
- "[INST] Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη; [/INST]"
36
- ```
 
 
 
 
 
 
 
 
37
 
38
- The same can be achieved through the utilization of the default [chat template](https://huggingface.co/docs/transformers/main/chat_templating) which follows the [Zephyr](https://huggingface.co/HuggingFaceH4/zephyr-7b-beta) format.
39
 
 
 
 
 
 
 
 
40
 
41
  # Evaluation
42
 
 
27
 
28
 
29
  # Instruction format
30
+ The prompt format is the same as the [Zephyr](https://huggingface.co/HuggingFaceH4/zephyr-7b-beta) format and can be
31
+ utilized through the tokenizer's [chat template](https://huggingface.co/docs/transformers/main/chat_templating) functionality as follows:
32
 
33
  ```
34
+ from transformers import AutoModelForCausalLM, AutoTokenizer
35
+
36
+ device = "cuda" # the device to load the model onto
37
+
38
+ model = AutoModelForCausalLM.from_pretrained("ilsp/Meltemi-7B-Instruct-v1")
39
+ tokenizer = AutoTokenizer.from_pretrained("ilsp/Meltemi-7B-Instruct-v1")
40
+
41
+ messages = [
42
+ {"role": "user", "content": "Πες μου αν έχεις συνείδηση."},
43
+ {"role": "assistant", "content": "Ως μοντέλο γλώσσας AI, δεν έχω τη δυνατότητα να αντιληφθώ ή να βιώσω συναισθήματα όπως η συνείδηση ή η επίγνωση. Ωστόσο, μπορώ να σας βοηθήσω με οποιεσδήποτε ερωτήσεις μπορεί να έχετε σχετικά με την τεχνητή νοημοσύνη και τις εφαρμογές της."},
44
+ {"role": "user", "content": "Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη;"}
45
+ ]
46
 
47
+ prompt = tokenizer.apply_chat_template(messages, return_tensors="pt")
48
 
49
+ input_prompt = prompt.to(device)
50
+ model.to(device)
51
+
52
+ outputs = model.generate(input_prompt, max_new_tokens=256, do_sample=True)
53
+
54
+ print(tokenizer.batch_decode(outputs)[0])
55
+ ```
56
 
57
  # Evaluation
58