Update README.md
Browse files
README.md
CHANGED
@@ -19,7 +19,7 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
|
|
19 |
---
|
20 |
## **Model Card: Instruction-Tuned Base Model**
|
21 |
### **Model Overview**
|
22 |
-
- **Model Name**: `llm-jp-3-13b-
|
23 |
- **Description**: このモデルは、日本語対応の大規模言語モデル「llm-jp-3-13b」を基盤としており、指示に応答する形式でのInstruction Tuningが施されています。
|
24 |
- **Base Model**: `llm-jp-3-13b`
|
25 |
- **Fine-Tuning Objective**: 指示文(instruction)に対して適切な応答(response)を生成する能力を高めることを目的とした微調整。
|
@@ -76,7 +76,7 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
|
|
76 |
```python
|
77 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
78 |
# モデルとトークナイザーのロード
|
79 |
-
model_name = "momo0729/llm-jp-3-13b-
|
80 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
81 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
82 |
# 指示応答生成
|
|
|
19 |
---
|
20 |
## **Model Card: Instruction-Tuned Base Model**
|
21 |
### **Model Overview**
|
22 |
+
- **Model Name**: `"llm-jp-3-13b-it"`
|
23 |
- **Description**: このモデルは、日本語対応の大規模言語モデル「llm-jp-3-13b」を基盤としており、指示に応答する形式でのInstruction Tuningが施されています。
|
24 |
- **Base Model**: `llm-jp-3-13b`
|
25 |
- **Fine-Tuning Objective**: 指示文(instruction)に対して適切な応答(response)を生成する能力を高めることを目的とした微調整。
|
|
|
76 |
```python
|
77 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
78 |
# モデルとトークナイザーのロード
|
79 |
+
model_name = "momo0729/llm-jp-3-13b-it"
|
80 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
81 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
82 |
# 指示応答生成
|