language: | |
- en | |
base_model: | |
- meta-llama/Llama-3.1-8B-Instruct | |
- unsloth를 이용해 ipc pdf를 전처리/파싱한 raw data로 pretraining한 모델 | |
- max_seq_length = 2000 | |
-lora_rank=64, lora_alpha=64, lora_dropout=0 | |
- target_modules = ["q_proj", "k_proj", "v_proj", "o_proj", | |
- "gate_proj", "up_proj", "down_proj", | |
- "lm_head", "embed_tokens",] |