metadata
language:
- en
base_model:
- meta-llama/Llama-3.1-8B-Instruct
unsloth를 이용해 ipc pdf를 전처리/파싱한 raw data로 pretraining한 모델
max_seq_length = 2000 -lora_rank=64, lora_alpha=64, lora_dropout=0
target_modules = ["q_proj", "k_proj", "v_proj", "o_proj",
"gate_proj", "up_proj", "down_proj",
"lm_head", "embed_tokens",]