| { | |
| "best_metric": 0.24801969528198242, | |
| "best_model_checkpoint": "./xlam_lora_new_ete_over_size_3epoch_multi_3000_zhtw/checkpoint-744", | |
| "epoch": 3.968, | |
| "eval_steps": 62, | |
| "global_step": 744, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.05333333333333334, | |
| "grad_norm": 0.4235735535621643, | |
| "learning_rate": 3.0303030303030305e-06, | |
| "loss": 0.6361, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.10666666666666667, | |
| "grad_norm": 0.6050911545753479, | |
| "learning_rate": 6.060606060606061e-06, | |
| "loss": 0.662, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 0.16, | |
| "grad_norm": 0.49475550651550293, | |
| "learning_rate": 9.090909090909091e-06, | |
| "loss": 0.6834, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.21333333333333335, | |
| "grad_norm": 0.5867378115653992, | |
| "learning_rate": 1.2121212121212122e-05, | |
| "loss": 0.5942, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 0.26666666666666666, | |
| "grad_norm": 0.5474593639373779, | |
| "learning_rate": 1.5151515151515153e-05, | |
| "loss": 0.5901, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.32, | |
| "grad_norm": 0.40911629796028137, | |
| "learning_rate": 1.8181818181818182e-05, | |
| "loss": 0.5557, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 0.33066666666666666, | |
| "eval_loss": 0.46582701802253723, | |
| "eval_runtime": 54.2447, | |
| "eval_samples_per_second": 5.53, | |
| "eval_steps_per_second": 5.53, | |
| "step": 62 | |
| }, | |
| { | |
| "epoch": 0.37333333333333335, | |
| "grad_norm": 0.4435727894306183, | |
| "learning_rate": 1.9998954455284204e-05, | |
| "loss": 0.4781, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 0.4266666666666667, | |
| "grad_norm": 0.41196975111961365, | |
| "learning_rate": 1.9987194587947592e-05, | |
| "loss": 0.4138, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 0.48, | |
| "grad_norm": 0.42836371064186096, | |
| "learning_rate": 1.9962383341550194e-05, | |
| "loss": 0.4172, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 0.5333333333333333, | |
| "grad_norm": 0.37602734565734863, | |
| "learning_rate": 1.9924553139709957e-05, | |
| "loss": 0.4065, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 0.5866666666666667, | |
| "grad_norm": 0.4275723993778229, | |
| "learning_rate": 1.9873753419363336e-05, | |
| "loss": 0.3744, | |
| "step": 110 | |
| }, | |
| { | |
| "epoch": 0.64, | |
| "grad_norm": 0.42136824131011963, | |
| "learning_rate": 1.981005056616053e-05, | |
| "loss": 0.3873, | |
| "step": 120 | |
| }, | |
| { | |
| "epoch": 0.6613333333333333, | |
| "eval_loss": 0.3491014242172241, | |
| "eval_runtime": 54.1917, | |
| "eval_samples_per_second": 5.536, | |
| "eval_steps_per_second": 5.536, | |
| "step": 124 | |
| }, | |
| { | |
| "epoch": 0.6933333333333334, | |
| "grad_norm": 0.5505813956260681, | |
| "learning_rate": 1.9733527827711977e-05, | |
| "loss": 0.3914, | |
| "step": 130 | |
| }, | |
| { | |
| "epoch": 0.7466666666666667, | |
| "grad_norm": 0.512336790561676, | |
| "learning_rate": 1.9644285204799424e-05, | |
| "loss": 0.3669, | |
| "step": 140 | |
| }, | |
| { | |
| "epoch": 0.8, | |
| "grad_norm": 0.4810221791267395, | |
| "learning_rate": 1.954243932069377e-05, | |
| "loss": 0.3437, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 0.8533333333333334, | |
| "grad_norm": 0.4676913321018219, | |
| "learning_rate": 1.9428123268750477e-05, | |
| "loss": 0.3271, | |
| "step": 160 | |
| }, | |
| { | |
| "epoch": 0.9066666666666666, | |
| "grad_norm": 0.5244799852371216, | |
| "learning_rate": 1.9301486438481628e-05, | |
| "loss": 0.3275, | |
| "step": 170 | |
| }, | |
| { | |
| "epoch": 0.96, | |
| "grad_norm": 0.6460509896278381, | |
| "learning_rate": 1.9162694320332047e-05, | |
| "loss": 0.336, | |
| "step": 180 | |
| }, | |
| { | |
| "epoch": 0.992, | |
| "eval_loss": 0.3109975755214691, | |
| "eval_runtime": 54.2021, | |
| "eval_samples_per_second": 5.535, | |
| "eval_steps_per_second": 5.535, | |
| "step": 186 | |
| }, | |
| { | |
| "epoch": 1.0133333333333334, | |
| "grad_norm": 0.6787670850753784, | |
| "learning_rate": 1.9011928289414502e-05, | |
| "loss": 0.3398, | |
| "step": 190 | |
| }, | |
| { | |
| "epoch": 1.0666666666666667, | |
| "grad_norm": 0.6159510612487793, | |
| "learning_rate": 1.884938536848665e-05, | |
| "loss": 0.2954, | |
| "step": 200 | |
| }, | |
| { | |
| "epoch": 1.12, | |
| "grad_norm": 0.7281141877174377, | |
| "learning_rate": 1.8675277970479472e-05, | |
| "loss": 0.2924, | |
| "step": 210 | |
| }, | |
| { | |
| "epoch": 1.1733333333333333, | |
| "grad_norm": 0.616617739200592, | |
| "learning_rate": 1.8489833620913644e-05, | |
| "loss": 0.3035, | |
| "step": 220 | |
| }, | |
| { | |
| "epoch": 1.2266666666666666, | |
| "grad_norm": 0.6845237016677856, | |
| "learning_rate": 1.8293294660566593e-05, | |
| "loss": 0.3086, | |
| "step": 230 | |
| }, | |
| { | |
| "epoch": 1.28, | |
| "grad_norm": 0.742657482624054, | |
| "learning_rate": 1.8085917928778856e-05, | |
| "loss": 0.3105, | |
| "step": 240 | |
| }, | |
| { | |
| "epoch": 1.3226666666666667, | |
| "eval_loss": 0.28988921642303467, | |
| "eval_runtime": 54.2132, | |
| "eval_samples_per_second": 5.534, | |
| "eval_steps_per_second": 5.534, | |
| "step": 248 | |
| }, | |
| { | |
| "epoch": 1.3333333333333333, | |
| "grad_norm": 0.6471216082572937, | |
| "learning_rate": 1.786797442781349e-05, | |
| "loss": 0.293, | |
| "step": 250 | |
| }, | |
| { | |
| "epoch": 1.3866666666666667, | |
| "grad_norm": 0.6534147262573242, | |
| "learning_rate": 1.763974896870726e-05, | |
| "loss": 0.3092, | |
| "step": 260 | |
| }, | |
| { | |
| "epoch": 1.44, | |
| "grad_norm": 0.7821707129478455, | |
| "learning_rate": 1.7401539799076337e-05, | |
| "loss": 0.2902, | |
| "step": 270 | |
| }, | |
| { | |
| "epoch": 1.4933333333333334, | |
| "grad_norm": 0.8048843145370483, | |
| "learning_rate": 1.715365821336294e-05, | |
| "loss": 0.2705, | |
| "step": 280 | |
| }, | |
| { | |
| "epoch": 1.5466666666666666, | |
| "grad_norm": 0.7110066413879395, | |
| "learning_rate": 1.6896428146032234e-05, | |
| "loss": 0.264, | |
| "step": 290 | |
| }, | |
| { | |
| "epoch": 1.6, | |
| "grad_norm": 0.8438879251480103, | |
| "learning_rate": 1.66301857482511e-05, | |
| "loss": 0.3009, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 1.6533333333333333, | |
| "grad_norm": 0.9177027344703674, | |
| "learning_rate": 1.6355278948601968e-05, | |
| "loss": 0.2781, | |
| "step": 310 | |
| }, | |
| { | |
| "epoch": 1.6533333333333333, | |
| "eval_loss": 0.2756989598274231, | |
| "eval_runtime": 54.2092, | |
| "eval_samples_per_second": 5.534, | |
| "eval_steps_per_second": 5.534, | |
| "step": 310 | |
| }, | |
| { | |
| "epoch": 1.7066666666666666, | |
| "grad_norm": 0.9365342855453491, | |
| "learning_rate": 1.607206699840582e-05, | |
| "loss": 0.3051, | |
| "step": 320 | |
| }, | |
| { | |
| "epoch": 1.76, | |
| "grad_norm": 0.8810393214225769, | |
| "learning_rate": 1.5780920002248484e-05, | |
| "loss": 0.2981, | |
| "step": 330 | |
| }, | |
| { | |
| "epoch": 1.8133333333333335, | |
| "grad_norm": 0.781434178352356, | |
| "learning_rate": 1.5482218434323772e-05, | |
| "loss": 0.274, | |
| "step": 340 | |
| }, | |
| { | |
| "epoch": 1.8666666666666667, | |
| "grad_norm": 0.8649221062660217, | |
| "learning_rate": 1.5176352641225482e-05, | |
| "loss": 0.2895, | |
| "step": 350 | |
| }, | |
| { | |
| "epoch": 1.92, | |
| "grad_norm": 0.8754165768623352, | |
| "learning_rate": 1.4863722331838056e-05, | |
| "loss": 0.2516, | |
| "step": 360 | |
| }, | |
| { | |
| "epoch": 1.9733333333333334, | |
| "grad_norm": 0.8252100348472595, | |
| "learning_rate": 1.4544736054992479e-05, | |
| "loss": 0.2571, | |
| "step": 370 | |
| }, | |
| { | |
| "epoch": 1.984, | |
| "eval_loss": 0.2665763199329376, | |
| "eval_runtime": 54.2263, | |
| "eval_samples_per_second": 5.532, | |
| "eval_steps_per_second": 5.532, | |
| "step": 372 | |
| }, | |
| { | |
| "epoch": 2.026666666666667, | |
| "grad_norm": 0.7680694460868835, | |
| "learning_rate": 1.421981066557003e-05, | |
| "loss": 0.2705, | |
| "step": 380 | |
| }, | |
| { | |
| "epoch": 2.08, | |
| "grad_norm": 0.9581365585327148, | |
| "learning_rate": 1.388937077975161e-05, | |
| "loss": 0.256, | |
| "step": 390 | |
| }, | |
| { | |
| "epoch": 2.1333333333333333, | |
| "grad_norm": 0.8508623838424683, | |
| "learning_rate": 1.3553848220124497e-05, | |
| "loss": 0.2489, | |
| "step": 400 | |
| }, | |
| { | |
| "epoch": 2.1866666666666665, | |
| "grad_norm": 1.2500756978988647, | |
| "learning_rate": 1.3213681451371697e-05, | |
| "loss": 0.2592, | |
| "step": 410 | |
| }, | |
| { | |
| "epoch": 2.24, | |
| "grad_norm": 1.1143897771835327, | |
| "learning_rate": 1.2869315007281334e-05, | |
| "loss": 0.2758, | |
| "step": 420 | |
| }, | |
| { | |
| "epoch": 2.2933333333333334, | |
| "grad_norm": 1.0108174085617065, | |
| "learning_rate": 1.2521198909824844e-05, | |
| "loss": 0.2568, | |
| "step": 430 | |
| }, | |
| { | |
| "epoch": 2.3146666666666667, | |
| "eval_loss": 0.2603953778743744, | |
| "eval_runtime": 54.2271, | |
| "eval_samples_per_second": 5.532, | |
| "eval_steps_per_second": 5.532, | |
| "step": 434 | |
| }, | |
| { | |
| "epoch": 2.3466666666666667, | |
| "grad_norm": 0.8171532154083252, | |
| "learning_rate": 1.2169788081063181e-05, | |
| "loss": 0.2641, | |
| "step": 440 | |
| }, | |
| { | |
| "epoch": 2.4, | |
| "grad_norm": 0.8417274951934814, | |
| "learning_rate": 1.1815541748649504e-05, | |
| "loss": 0.253, | |
| "step": 450 | |
| }, | |
| { | |
| "epoch": 2.453333333333333, | |
| "grad_norm": 1.0465962886810303, | |
| "learning_rate": 1.1458922845705267e-05, | |
| "loss": 0.2376, | |
| "step": 460 | |
| }, | |
| { | |
| "epoch": 2.506666666666667, | |
| "grad_norm": 1.0968025922775269, | |
| "learning_rate": 1.1100397405853988e-05, | |
| "loss": 0.263, | |
| "step": 470 | |
| }, | |
| { | |
| "epoch": 2.56, | |
| "grad_norm": 0.7435486316680908, | |
| "learning_rate": 1.0740433954203215e-05, | |
| "loss": 0.2712, | |
| "step": 480 | |
| }, | |
| { | |
| "epoch": 2.6133333333333333, | |
| "grad_norm": 0.8800560235977173, | |
| "learning_rate": 1.0379502895070615e-05, | |
| "loss": 0.2429, | |
| "step": 490 | |
| }, | |
| { | |
| "epoch": 2.6453333333333333, | |
| "eval_loss": 0.2555026710033417, | |
| "eval_runtime": 54.2314, | |
| "eval_samples_per_second": 5.532, | |
| "eval_steps_per_second": 5.532, | |
| "step": 496 | |
| }, | |
| { | |
| "epoch": 2.6666666666666665, | |
| "grad_norm": 0.8447176218032837, | |
| "learning_rate": 1.0018075897254269e-05, | |
| "loss": 0.2441, | |
| "step": 500 | |
| }, | |
| { | |
| "epoch": 2.7199999999999998, | |
| "grad_norm": 1.1300873756408691, | |
| "learning_rate": 9.656625277650558e-06, | |
| "loss": 0.228, | |
| "step": 510 | |
| }, | |
| { | |
| "epoch": 2.7733333333333334, | |
| "grad_norm": 1.0779595375061035, | |
| "learning_rate": 9.295623384025081e-06, | |
| "loss": 0.2115, | |
| "step": 520 | |
| }, | |
| { | |
| "epoch": 2.8266666666666667, | |
| "grad_norm": 0.8979836106300354, | |
| "learning_rate": 8.935541977743243e-06, | |
| "loss": 0.2482, | |
| "step": 530 | |
| }, | |
| { | |
| "epoch": 2.88, | |
| "grad_norm": 1.0708163976669312, | |
| "learning_rate": 8.576851617267151e-06, | |
| "loss": 0.2348, | |
| "step": 540 | |
| }, | |
| { | |
| "epoch": 2.9333333333333336, | |
| "grad_norm": 0.9067320823669434, | |
| "learning_rate": 8.2200210432245e-06, | |
| "loss": 0.2583, | |
| "step": 550 | |
| }, | |
| { | |
| "epoch": 2.976, | |
| "eval_loss": 0.25170889496803284, | |
| "eval_runtime": 54.2153, | |
| "eval_samples_per_second": 5.533, | |
| "eval_steps_per_second": 5.533, | |
| "step": 558 | |
| }, | |
| { | |
| "epoch": 2.986666666666667, | |
| "grad_norm": 0.9867958426475525, | |
| "learning_rate": 7.865516565852993e-06, | |
| "loss": 0.2237, | |
| "step": 560 | |
| }, | |
| { | |
| "epoch": 3.04, | |
| "grad_norm": 1.0322318077087402, | |
| "learning_rate": 7.513801455620847e-06, | |
| "loss": 0.2312, | |
| "step": 570 | |
| }, | |
| { | |
| "epoch": 3.0933333333333333, | |
| "grad_norm": 0.9287954568862915, | |
| "learning_rate": 7.165335337819692e-06, | |
| "loss": 0.2571, | |
| "step": 580 | |
| }, | |
| { | |
| "epoch": 3.1466666666666665, | |
| "grad_norm": 1.0354498624801636, | |
| "learning_rate": 6.820573591921029e-06, | |
| "loss": 0.2329, | |
| "step": 590 | |
| }, | |
| { | |
| "epoch": 3.2, | |
| "grad_norm": 1.151548147201538, | |
| "learning_rate": 6.479966756481187e-06, | |
| "loss": 0.2282, | |
| "step": 600 | |
| }, | |
| { | |
| "epoch": 3.2533333333333334, | |
| "grad_norm": 1.203273892402649, | |
| "learning_rate": 6.143959940372412e-06, | |
| "loss": 0.2411, | |
| "step": 610 | |
| }, | |
| { | |
| "epoch": 3.3066666666666666, | |
| "grad_norm": 1.1253547668457031, | |
| "learning_rate": 5.812992241109578e-06, | |
| "loss": 0.2333, | |
| "step": 620 | |
| }, | |
| { | |
| "epoch": 3.3066666666666666, | |
| "eval_loss": 0.25101205706596375, | |
| "eval_runtime": 54.2061, | |
| "eval_samples_per_second": 5.534, | |
| "eval_steps_per_second": 5.534, | |
| "step": 620 | |
| }, | |
| { | |
| "epoch": 3.36, | |
| "grad_norm": 0.9425201416015625, | |
| "learning_rate": 5.48749617103255e-06, | |
| "loss": 0.2321, | |
| "step": 630 | |
| }, | |
| { | |
| "epoch": 3.413333333333333, | |
| "grad_norm": 1.2458714246749878, | |
| "learning_rate": 5.167897092094173e-06, | |
| "loss": 0.2156, | |
| "step": 640 | |
| }, | |
| { | |
| "epoch": 3.466666666666667, | |
| "grad_norm": 1.279915452003479, | |
| "learning_rate": 4.854612659992443e-06, | |
| "loss": 0.2249, | |
| "step": 650 | |
| }, | |
| { | |
| "epoch": 3.52, | |
| "grad_norm": 1.2267746925354004, | |
| "learning_rate": 4.548052278373327e-06, | |
| "loss": 0.2348, | |
| "step": 660 | |
| }, | |
| { | |
| "epoch": 3.5733333333333333, | |
| "grad_norm": 1.0411362648010254, | |
| "learning_rate": 4.248616563817409e-06, | |
| "loss": 0.2064, | |
| "step": 670 | |
| }, | |
| { | |
| "epoch": 3.626666666666667, | |
| "grad_norm": 1.2344108819961548, | |
| "learning_rate": 3.956696822309632e-06, | |
| "loss": 0.2392, | |
| "step": 680 | |
| }, | |
| { | |
| "epoch": 3.6373333333333333, | |
| "eval_loss": 0.24955469369888306, | |
| "eval_runtime": 54.201, | |
| "eval_samples_per_second": 5.535, | |
| "eval_steps_per_second": 5.535, | |
| "step": 682 | |
| }, | |
| { | |
| "epoch": 3.68, | |
| "grad_norm": 1.0226306915283203, | |
| "learning_rate": 3.6726745378761885e-06, | |
| "loss": 0.2169, | |
| "step": 690 | |
| }, | |
| { | |
| "epoch": 3.7333333333333334, | |
| "grad_norm": 1.132111668586731, | |
| "learning_rate": 3.3969208740568628e-06, | |
| "loss": 0.223, | |
| "step": 700 | |
| }, | |
| { | |
| "epoch": 3.7866666666666666, | |
| "grad_norm": 1.164300799369812, | |
| "learning_rate": 3.129796188864336e-06, | |
| "loss": 0.2247, | |
| "step": 710 | |
| }, | |
| { | |
| "epoch": 3.84, | |
| "grad_norm": 1.1921504735946655, | |
| "learning_rate": 2.871649563864224e-06, | |
| "loss": 0.2433, | |
| "step": 720 | |
| }, | |
| { | |
| "epoch": 3.8933333333333335, | |
| "grad_norm": 1.1919898986816406, | |
| "learning_rate": 2.622818347991359e-06, | |
| "loss": 0.2322, | |
| "step": 730 | |
| }, | |
| { | |
| "epoch": 3.9466666666666668, | |
| "grad_norm": 1.1623626947402954, | |
| "learning_rate": 2.3836277166983567e-06, | |
| "loss": 0.2412, | |
| "step": 740 | |
| }, | |
| { | |
| "epoch": 3.968, | |
| "eval_loss": 0.24801969528198242, | |
| "eval_runtime": 54.2172, | |
| "eval_samples_per_second": 5.533, | |
| "eval_steps_per_second": 5.533, | |
| "step": 744 | |
| } | |
| ], | |
| "logging_steps": 10, | |
| "max_steps": 935, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 5, | |
| "save_steps": 62, | |
| "stateful_callbacks": { | |
| "EarlyStoppingCallback": { | |
| "args": { | |
| "early_stopping_patience": 2, | |
| "early_stopping_threshold": 0.0 | |
| }, | |
| "attributes": { | |
| "early_stopping_patience_counter": 0 | |
| } | |
| }, | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": false | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 2.951999276895437e+17, | |
| "train_batch_size": 1, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |