momo0729 commited on
Commit
b9bfffa
·
verified ·
1 Parent(s): a7a1cc9

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -3
README.md CHANGED
@@ -19,7 +19,7 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
19
  ---
20
  ## **Model Card: Instruction-Tuned Base Model**
21
  ### **Model Overview**
22
- - **Model Name**: `llm-jp-3-13b-it`
23
  - **Description**: このモデルは、日本語対応の大規模言語モデル「llm-jp-3-13b」を基盤としており、指示に応答する形式でのInstruction Tuningが施されています。
24
  - **Base Model**: `llm-jp-3-13b`
25
  - **Fine-Tuning Objective**: 指示文(instruction)に対して適切な応答(response)を生成する能力を高めることを目的とした微調整。
@@ -76,12 +76,15 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
76
  ```python
77
  from transformers import AutoTokenizer, AutoModelForCausalLM
78
  # モデルとトークナイザーのロード
79
- model_name = "your-hf-username/llm-jp-3-13b-it"
80
  tokenizer = AutoTokenizer.from_pretrained(model_name)
81
  model = AutoModelForCausalLM.from_pretrained(model_name)
82
  # 指示応答生成
83
  instruction = "次の文章を要約してください。"
84
- prompt = f"### 指示\n{instruction}\n### 回答\n"
 
 
 
85
  inputs = tokenizer(prompt, return_tensors="pt")
86
  outputs = model.generate(**inputs, max_new_tokens=128)
87
  # 出力結果
 
19
  ---
20
  ## **Model Card: Instruction-Tuned Base Model**
21
  ### **Model Overview**
22
+ - **Model Name**: `llm-jp-3-13b-finetune`
23
  - **Description**: このモデルは、日本語対応の大規模言語モデル「llm-jp-3-13b」を基盤としており、指示に応答する形式でのInstruction Tuningが施されています。
24
  - **Base Model**: `llm-jp-3-13b`
25
  - **Fine-Tuning Objective**: 指示文(instruction)に対して適切な応答(response)を生成する能力を高めることを目的とした微調整。
 
76
  ```python
77
  from transformers import AutoTokenizer, AutoModelForCausalLM
78
  # モデルとトークナイザーのロード
79
+ model_name = "momo0729/llm-jp-3-13b-finetune"
80
  tokenizer = AutoTokenizer.from_pretrained(model_name)
81
  model = AutoModelForCausalLM.from_pretrained(model_name)
82
  # 指示応答生成
83
  instruction = "次の文章を要約してください。"
84
+ prompt = f"### 指示
85
+ {} ステップバイステップで考えて。深呼吸して考えてください。
86
+ ### 回答
87
+ {}"
88
  inputs = tokenizer(prompt, return_tensors="pt")
89
  outputs = model.generate(**inputs, max_new_tokens=128)
90
  # 出力結果