LVouk commited on
Commit
c6a7ec9
1 Parent(s): a9e93bd

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +26 -5
README.md CHANGED
@@ -38,10 +38,11 @@ device = "cuda" # the device to load the model onto
38
  model = AutoModelForCausalLM.from_pretrained("ilsp/Meltemi-7B-Instruct-v1")
39
  tokenizer = AutoTokenizer.from_pretrained("ilsp/Meltemi-7B-Instruct-v1")
40
 
 
 
41
  messages = [
42
  {"role": "system", "content": "Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη."},
43
  {"role": "user", "content": "Πες μου αν έχεις συνείδηση."},
44
- {"role": "assistant", "content": "Ως μοντέλο γλώσσας AI, δεν έχω τη δυνατότητα να αντιληφθώ ή να βιώσω συναισθήματα όπως η συνείδηση ή η επίγνωση. Ωστόσο, μπορώ να σας βοηθήσω με οποιεσδήποτε ερωτήσεις μπορεί να έχετε σχετικά με την τεχνητή νοημοσύνη και τις εφαρμογές της."},
45
  ]
46
 
47
  # Through the default chat template this translates to
@@ -51,15 +52,35 @@ messages = [
51
  # <|user|>
52
  # Πες μου αν έχεις συνείδηση.</s>
53
  # <|assistant|>
 
 
 
 
 
 
 
54
  # Ως μοντέλο γλώσσας AI, δεν έχω τη δυνατότητα να αντιληφθώ ή να βιώσω συναισθήματα όπως η συνείδηση ή η επίγνωση. Ωστόσο, μπορώ να σας βοηθήσω με οποιεσδήποτε ερωτήσεις μπορεί να έχετε σχετικά με την τεχνητή νοημοσύνη και τις εφαρμογές της.
55
 
56
- messages.append({"role": "user", "content": "Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη;"})
 
 
 
57
 
58
- prompt = tokenizer.apply_chat_template(messages, return_tensors="pt")
 
 
 
 
 
 
 
 
 
 
 
59
 
 
60
  input_prompt = prompt.to(device)
61
- model.to(device)
62
-
63
  outputs = model.generate(input_prompt, max_new_tokens=256, do_sample=True)
64
 
65
  print(tokenizer.batch_decode(outputs)[0])
 
38
  model = AutoModelForCausalLM.from_pretrained("ilsp/Meltemi-7B-Instruct-v1")
39
  tokenizer = AutoTokenizer.from_pretrained("ilsp/Meltemi-7B-Instruct-v1")
40
 
41
+ model.to(device)
42
+
43
  messages = [
44
  {"role": "system", "content": "Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη."},
45
  {"role": "user", "content": "Πες μου αν έχεις συνείδηση."},
 
46
  ]
47
 
48
  # Through the default chat template this translates to
 
52
  # <|user|>
53
  # Πες μου αν έχεις συνείδηση.</s>
54
  # <|assistant|>
55
+ #
56
+
57
+ prompt = tokenizer.apply_chat_template(messages, return_tensors="pt")
58
+ input_prompt = prompt.to(device)
59
+ outputs = model.generate(input_prompt, max_new_tokens=256, do_sample=True)
60
+
61
+ print(tokenizer.batch_decode(outputs)[0])
62
  # Ως μοντέλο γλώσσας AI, δεν έχω τη δυνατότητα να αντιληφθώ ή να βιώσω συναισθήματα όπως η συνείδηση ή η επίγνωση. Ωστόσο, μπορώ να σας βοηθήσω με οποιεσδήποτε ερωτήσεις μπορεί να έχετε σχετικά με την τεχνητή νοημοσύνη και τις εφαρμογές της.
63
 
64
+ messages.extend([
65
+ {"role": "assistant", "content": tokenizer.batch_decode(outputs)[0]},
66
+ {"role": "user", "content": "Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη;"}
67
+ ])
68
 
69
+ # Through the default chat template this translates to
70
+ #
71
+ # <|system|>
72
+ # Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη.</s>
73
+ # <|user|>
74
+ # Πες μου αν έχεις συνείδηση.</s>
75
+ # <|assistant|>
76
+ # Ως μοντέλο γλώσσας AI, δεν έχω τη δυνατότητα να αντιληφθώ ή να βιώσω συναισθήματα όπως η συνείδηση ή η επίγνωση. Ωστόσο, μπορώ να σας βοηθήσω με οποιεσδήποτε ερωτήσεις μπορεί να έχετε σχετικά με την τεχνητή νοημοσύνη και τις εφαρμογές της.</s>
77
+ # <|user|>
78
+ # Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη;</s>
79
+ # <|assistant|>
80
+ #
81
 
82
+ prompt = tokenizer.apply_chat_template(messages, return_tensors="pt")
83
  input_prompt = prompt.to(device)
 
 
84
  outputs = model.generate(input_prompt, max_new_tokens=256, do_sample=True)
85
 
86
  print(tokenizer.batch_decode(outputs)[0])