Holy-fox commited on
Commit
d90e24e
·
verified ·
1 Parent(s): 42ef4c9

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +56 -3
README.md CHANGED
@@ -1,3 +1,56 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ language:
4
+ - ja
5
+ - en
6
+ base_model:
7
+ - sbintuitions/sarashina2.2-3b-instruct-v0.1
8
+ pipeline_tag: text-generation
9
+ ---
10
+
11
+ # DataPilot/ArrowNeo-Neko-3B-coder
12
+
13
+ ## overview
14
+
15
+ このモデルはSB intuitionsの[sarashina-2.2-instruct-v0.1](https://huggingface.co/sbintuitions/sarashina2.2-3b-instruct-v0.1)をベースにUnslothを用いてコーディングモデル用にチューニングしました。
16
+ ## How to use
17
+
18
+ 以下のコードでこのモデルを動かすことができます。
19
+ ```python
20
+ import torch
21
+ from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline, set_seed
22
+
23
+ # モデルのロード
24
+ model_name = "DataPilot/ArrowNeo-Neko-3B-coder"
25
+ model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map="auto")
26
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
27
+ chat_pipeline = pipeline("text-generation", model=model, tokenizer=tokenizer)
28
+ set_seed(123)
29
+
30
+ # ユーザーの入力
31
+ user_input = [{"role": "user", "content": "こんにちは。Pythonを用いてstrawberryのRをカウントするコードを書いて下さい。"}]
32
+
33
+ # モデルによる応答生成
34
+ responses = chat_pipeline(
35
+ user_input,
36
+ max_length=50,
37
+ do_sample=True,
38
+ num_return_sequences=2,
39
+ )
40
+
41
+ # 応答を表示
42
+ for i, response in enumerate(responses, 1):
43
+ print(f"Response {i}: {response['generated_text']}")
44
+ ```
45
+
46
+ ## Limitations
47
+
48
+ このモデルには、安全トレーニングが制限されています。
49
+ したがって、いくつかの無意味なシーケンス、いくつかの不正確なインスタンス、または偏った/不快な出力を生成する可能性があります。
50
+ 使用する前に、開発者は人間の好みと安全上の考慮事項に基づいてモデルを調整していただきたいと思います。
51
+
52
+ ## License
53
+
54
+ MIT license
55
+ このモデルのライセンスは[元モデルのライセンス](https://huggingface.co/sbintuitions/sarashina2.2-3b-instruct-v0.1/blob/main/LICENSE)に準拠します。
56
+