Update README.md
Browse files
README.md
CHANGED
@@ -19,7 +19,7 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
|
|
19 |
---
|
20 |
## **Model Card: Instruction-Tuned Base Model**
|
21 |
### **Model Overview**
|
22 |
-
- **Model Name**: `llm-jp-3-13b-
|
23 |
- **Description**: このモデルは、日本語対応の大規模言語モデル「llm-jp-3-13b」を基盤としており、指示に応答する形式でのInstruction Tuningが施されています。
|
24 |
- **Base Model**: `llm-jp-3-13b`
|
25 |
- **Fine-Tuning Objective**: 指示文(instruction)に対して適切な応答(response)を生成する能力を高めることを目的とした微調整。
|
@@ -76,12 +76,15 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
|
|
76 |
```python
|
77 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
78 |
# モデルとトークナイザーのロード
|
79 |
-
model_name = "
|
80 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
81 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
82 |
# 指示応答生成
|
83 |
instruction = "次の文章を要約してください。"
|
84 |
-
prompt = f"###
|
|
|
|
|
|
|
85 |
inputs = tokenizer(prompt, return_tensors="pt")
|
86 |
outputs = model.generate(**inputs, max_new_tokens=128)
|
87 |
# 出力結果
|
|
|
19 |
---
|
20 |
## **Model Card: Instruction-Tuned Base Model**
|
21 |
### **Model Overview**
|
22 |
+
- **Model Name**: `llm-jp-3-13b-finetune`
|
23 |
- **Description**: このモデルは、日本語対応の大規模言語モデル「llm-jp-3-13b」を基盤としており、指示に応答する形式でのInstruction Tuningが施されています。
|
24 |
- **Base Model**: `llm-jp-3-13b`
|
25 |
- **Fine-Tuning Objective**: 指示文(instruction)に対して適切な応答(response)を生成する能力を高めることを目的とした微調整。
|
|
|
76 |
```python
|
77 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
78 |
# モデルとトークナイザーのロード
|
79 |
+
model_name = "momo0729/llm-jp-3-13b-finetune"
|
80 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
81 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
82 |
# 指示応答生成
|
83 |
instruction = "次の文章を要約してください。"
|
84 |
+
prompt = f"### 指示
|
85 |
+
{} ステップバイステップで考えて。深呼吸して考えてください。
|
86 |
+
### 回答
|
87 |
+
{}"
|
88 |
inputs = tokenizer(prompt, return_tensors="pt")
|
89 |
outputs = model.generate(**inputs, max_new_tokens=128)
|
90 |
# 出力結果
|