codellama-34b-Python-Score4096-54 / trainer_state.json
afrias5's picture
Upload 12 files
248b459 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 2.9333333333333336,
"eval_steps": 500,
"global_step": 54,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.05333333333333334,
"grad_norm": 4.666506767272949,
"learning_rate": 2e-05,
"loss": 1.292,
"step": 1
},
{
"epoch": 0.10666666666666667,
"grad_norm": 7.47365140914917,
"learning_rate": 4e-05,
"loss": 1.7001,
"step": 2
},
{
"epoch": 0.16,
"grad_norm": 5.822547435760498,
"learning_rate": 6e-05,
"loss": 1.5635,
"step": 3
},
{
"epoch": 0.21333333333333335,
"grad_norm": 5.696200370788574,
"learning_rate": 8e-05,
"loss": 1.5232,
"step": 4
},
{
"epoch": 0.26666666666666666,
"grad_norm": 6.368800640106201,
"learning_rate": 0.0001,
"loss": 1.6976,
"step": 5
},
{
"epoch": 0.32,
"grad_norm": 5.016761779785156,
"learning_rate": 0.00012,
"loss": 1.2749,
"step": 6
},
{
"epoch": 0.37333333333333335,
"grad_norm": 4.986789703369141,
"learning_rate": 0.00014,
"loss": 1.1729,
"step": 7
},
{
"epoch": 0.4266666666666667,
"grad_norm": 4.382698059082031,
"learning_rate": 0.00016,
"loss": 0.8026,
"step": 8
},
{
"epoch": 0.48,
"grad_norm": 4.508045196533203,
"learning_rate": 0.00018,
"loss": 0.5936,
"step": 9
},
{
"epoch": 0.5333333333333333,
"grad_norm": 3.433337688446045,
"learning_rate": 0.0002,
"loss": 0.31,
"step": 10
},
{
"epoch": 0.5866666666666667,
"grad_norm": 28.188095092773438,
"learning_rate": 0.0001999229036240723,
"loss": 0.2593,
"step": 11
},
{
"epoch": 0.64,
"grad_norm": 12.629283905029297,
"learning_rate": 0.0001996917333733128,
"loss": 0.2529,
"step": 12
},
{
"epoch": 0.6933333333333334,
"grad_norm": 8.236252784729004,
"learning_rate": 0.00019930684569549264,
"loss": 0.124,
"step": 13
},
{
"epoch": 0.7466666666666667,
"grad_norm": 6.509011268615723,
"learning_rate": 0.00019876883405951377,
"loss": 0.1231,
"step": 14
},
{
"epoch": 0.8,
"grad_norm": 5.940812110900879,
"learning_rate": 0.00019807852804032305,
"loss": 0.2561,
"step": 15
},
{
"epoch": 0.8533333333333334,
"grad_norm": 2.8804972171783447,
"learning_rate": 0.00019723699203976766,
"loss": 0.0935,
"step": 16
},
{
"epoch": 0.9066666666666666,
"grad_norm": 1.605584979057312,
"learning_rate": 0.00019624552364536473,
"loss": 0.0779,
"step": 17
},
{
"epoch": 0.96,
"grad_norm": 10.454480171203613,
"learning_rate": 0.00019510565162951537,
"loss": 0.2176,
"step": 18
},
{
"epoch": 1.04,
"grad_norm": 15.712906837463379,
"learning_rate": 0.00019381913359224842,
"loss": 0.2194,
"step": 19
},
{
"epoch": 1.0933333333333333,
"grad_norm": 3.0404889583587646,
"learning_rate": 0.0001923879532511287,
"loss": 0.0467,
"step": 20
},
{
"epoch": 1.1466666666666667,
"grad_norm": 2.7410025596618652,
"learning_rate": 0.00019081431738250814,
"loss": 0.0759,
"step": 21
},
{
"epoch": 1.2,
"grad_norm": 1.3956505060195923,
"learning_rate": 0.0001891006524188368,
"loss": 0.0991,
"step": 22
},
{
"epoch": 1.2533333333333334,
"grad_norm": 2.4015591144561768,
"learning_rate": 0.00018724960070727972,
"loss": 0.1033,
"step": 23
},
{
"epoch": 1.3066666666666666,
"grad_norm": 0.7280605435371399,
"learning_rate": 0.00018526401643540922,
"loss": 0.0451,
"step": 24
},
{
"epoch": 1.3599999999999999,
"grad_norm": 0.6601844429969788,
"learning_rate": 0.00018314696123025454,
"loss": 0.0355,
"step": 25
},
{
"epoch": 1.4133333333333333,
"grad_norm": 3.139280319213867,
"learning_rate": 0.00018090169943749476,
"loss": 0.1026,
"step": 26
},
{
"epoch": 1.4666666666666668,
"grad_norm": 1.7711118459701538,
"learning_rate": 0.00017853169308807448,
"loss": 0.0465,
"step": 27
},
{
"epoch": 1.52,
"grad_norm": 3.4875471591949463,
"learning_rate": 0.0001760405965600031,
"loss": 0.0593,
"step": 28
},
{
"epoch": 1.5733333333333333,
"grad_norm": 0.6932216286659241,
"learning_rate": 0.00017343225094356855,
"loss": 0.0367,
"step": 29
},
{
"epoch": 1.6266666666666667,
"grad_norm": 0.7455563545227051,
"learning_rate": 0.00017071067811865476,
"loss": 0.0504,
"step": 30
},
{
"epoch": 1.6800000000000002,
"grad_norm": 0.5182009935379028,
"learning_rate": 0.0001678800745532942,
"loss": 0.0498,
"step": 31
},
{
"epoch": 1.7333333333333334,
"grad_norm": 0.4234088063240051,
"learning_rate": 0.00016494480483301836,
"loss": 0.0339,
"step": 32
},
{
"epoch": 1.7866666666666666,
"grad_norm": 0.7142859697341919,
"learning_rate": 0.00016190939493098344,
"loss": 0.0437,
"step": 33
},
{
"epoch": 1.8399999999999999,
"grad_norm": 0.6082444787025452,
"learning_rate": 0.00015877852522924732,
"loss": 0.0497,
"step": 34
},
{
"epoch": 1.8933333333333333,
"grad_norm": 4.673405170440674,
"learning_rate": 0.00015555702330196023,
"loss": 0.0375,
"step": 35
},
{
"epoch": 1.9466666666666668,
"grad_norm": 1.5520739555358887,
"learning_rate": 0.0001522498564715949,
"loss": 0.1006,
"step": 36
},
{
"epoch": 2.026666666666667,
"grad_norm": 2.047563076019287,
"learning_rate": 0.00014886212414969553,
"loss": 0.0872,
"step": 37
},
{
"epoch": 2.08,
"grad_norm": 3.987710952758789,
"learning_rate": 0.00014539904997395468,
"loss": 0.0728,
"step": 38
},
{
"epoch": 2.1333333333333333,
"grad_norm": 0.30054906010627747,
"learning_rate": 0.0001418659737537428,
"loss": 0.0322,
"step": 39
},
{
"epoch": 2.1866666666666665,
"grad_norm": 0.503038227558136,
"learning_rate": 0.000138268343236509,
"loss": 0.0325,
"step": 40
},
{
"epoch": 2.24,
"grad_norm": 0.7160049080848694,
"learning_rate": 0.0001346117057077493,
"loss": 0.0383,
"step": 41
},
{
"epoch": 2.2933333333333334,
"grad_norm": 0.3441831171512604,
"learning_rate": 0.00013090169943749476,
"loss": 0.0395,
"step": 42
},
{
"epoch": 2.3466666666666667,
"grad_norm": 0.6901854276657104,
"learning_rate": 0.00012714404498650743,
"loss": 0.0338,
"step": 43
},
{
"epoch": 2.4,
"grad_norm": 0.7378256916999817,
"learning_rate": 0.00012334453638559057,
"loss": 0.0372,
"step": 44
},
{
"epoch": 2.453333333333333,
"grad_norm": 0.38442283868789673,
"learning_rate": 0.00011950903220161285,
"loss": 0.0323,
"step": 45
},
{
"epoch": 2.506666666666667,
"grad_norm": 0.4554055333137512,
"learning_rate": 0.0001156434465040231,
"loss": 0.0408,
"step": 46
},
{
"epoch": 2.56,
"grad_norm": 0.3607599437236786,
"learning_rate": 0.00011175373974578378,
"loss": 0.0274,
"step": 47
},
{
"epoch": 2.6133333333333333,
"grad_norm": 0.5390778183937073,
"learning_rate": 0.0001078459095727845,
"loss": 0.0296,
"step": 48
},
{
"epoch": 2.6666666666666665,
"grad_norm": 0.7152863144874573,
"learning_rate": 0.00010392598157590688,
"loss": 0.0466,
"step": 49
},
{
"epoch": 2.7199999999999998,
"grad_norm": 1.0252915620803833,
"learning_rate": 0.0001,
"loss": 0.0605,
"step": 50
},
{
"epoch": 2.7733333333333334,
"grad_norm": 4.168819904327393,
"learning_rate": 9.607401842409317e-05,
"loss": 0.0548,
"step": 51
},
{
"epoch": 2.8266666666666667,
"grad_norm": 0.3980584740638733,
"learning_rate": 9.215409042721552e-05,
"loss": 0.0248,
"step": 52
},
{
"epoch": 2.88,
"grad_norm": 0.2687112092971802,
"learning_rate": 8.824626025421626e-05,
"loss": 0.0316,
"step": 53
},
{
"epoch": 2.9333333333333336,
"grad_norm": 0.3823045492172241,
"learning_rate": 8.435655349597689e-05,
"loss": 0.0263,
"step": 54
}
],
"logging_steps": 1,
"max_steps": 90,
"num_input_tokens_seen": 0,
"num_train_epochs": 5,
"save_steps": 18,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 1.7927192902945997e+17,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}