momo0729 commited on
Commit
0234d70
·
verified ·
1 Parent(s): b9bfffa

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -19,7 +19,7 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
19
  ---
20
  ## **Model Card: Instruction-Tuned Base Model**
21
  ### **Model Overview**
22
- - **Model Name**: `llm-jp-3-13b-finetune`
23
  - **Description**: このモデルは、日本語対応の大規模言語モデル「llm-jp-3-13b」を基盤としており、指示に応答する形式でのInstruction Tuningが施されています。
24
  - **Base Model**: `llm-jp-3-13b`
25
  - **Fine-Tuning Objective**: 指示文(instruction)に対して適切な応答(response)を生成する能力を高めることを目的とした微調整。
@@ -76,7 +76,7 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
76
  ```python
77
  from transformers import AutoTokenizer, AutoModelForCausalLM
78
  # モデルとトークナイザーのロード
79
- model_name = "momo0729/llm-jp-3-13b-finetune"
80
  tokenizer = AutoTokenizer.from_pretrained(model_name)
81
  model = AutoModelForCausalLM.from_pretrained(model_name)
82
  # 指示応答生成
 
19
  ---
20
  ## **Model Card: Instruction-Tuned Base Model**
21
  ### **Model Overview**
22
+ - **Model Name**: `"llm-jp-3-13b-it"`
23
  - **Description**: このモデルは、日本語対応の大規模言語モデル「llm-jp-3-13b」を基盤としており、指示に応答する形式でのInstruction Tuningが施されています。
24
  - **Base Model**: `llm-jp-3-13b`
25
  - **Fine-Tuning Objective**: 指示文(instruction)に対して適切な応答(response)を生成する能力を高めることを目的とした微調整。
 
76
  ```python
77
  from transformers import AutoTokenizer, AutoModelForCausalLM
78
  # モデルとトークナイザーのロード
79
+ model_name = "momo0729/llm-jp-3-13b-it"
80
  tokenizer = AutoTokenizer.from_pretrained(model_name)
81
  model = AutoModelForCausalLM.from_pretrained(model_name)
82
  # 指示応答生成