{ "best_metric": null, "best_model_checkpoint": null, "epoch": 0.9984, "eval_steps": 500, "global_step": 468, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.0021333333333333334, "grad_norm": 303.16577329572664, "learning_rate": 1.3333333333333334e-06, "loss": 7.3237, "step": 1 }, { "epoch": 0.004266666666666667, "grad_norm": 353.2271149443972, "learning_rate": 2.666666666666667e-06, "loss": 7.1998, "step": 2 }, { "epoch": 0.0064, "grad_norm": 3775.8753863697425, "learning_rate": 4.000000000000001e-06, "loss": 7.036, "step": 3 }, { "epoch": 0.008533333333333334, "grad_norm": 12766.706200003042, "learning_rate": 5.333333333333334e-06, "loss": 6.3763, "step": 4 }, { "epoch": 0.010666666666666666, "grad_norm": 4561.3079788029345, "learning_rate": 6.666666666666667e-06, "loss": 4.6166, "step": 5 }, { "epoch": 0.0128, "grad_norm": 329.75463018445424, "learning_rate": 8.000000000000001e-06, "loss": 3.1298, "step": 6 }, { "epoch": 0.014933333333333333, "grad_norm": 150.3073575839664, "learning_rate": 9.333333333333334e-06, "loss": 2.4499, "step": 7 }, { "epoch": 0.017066666666666667, "grad_norm": 120.22030185769444, "learning_rate": 1.0666666666666667e-05, "loss": 2.1396, "step": 8 }, { "epoch": 0.0192, "grad_norm": 2801.279095013984, "learning_rate": 1.2e-05, "loss": 2.1943, "step": 9 }, { "epoch": 0.021333333333333333, "grad_norm": 857.3832692985438, "learning_rate": 1.3333333333333333e-05, "loss": 2.0228, "step": 10 }, { "epoch": 0.023466666666666667, "grad_norm": 104.0268024732774, "learning_rate": 1.4666666666666666e-05, "loss": 1.8804, "step": 11 }, { "epoch": 0.0256, "grad_norm": 274.73978833765904, "learning_rate": 1.6000000000000003e-05, "loss": 1.8405, "step": 12 }, { "epoch": 0.027733333333333332, "grad_norm": 50.3942946849501, "learning_rate": 1.7333333333333336e-05, "loss": 1.6634, "step": 13 }, { "epoch": 0.029866666666666666, "grad_norm": 35.72029667887262, "learning_rate": 1.866666666666667e-05, "loss": 1.585, "step": 14 }, { "epoch": 0.032, "grad_norm": 57.98881512188265, "learning_rate": 2e-05, "loss": 1.5327, "step": 15 }, { "epoch": 0.034133333333333335, "grad_norm": 51.88325176813403, "learning_rate": 1.9999759524074374e-05, "loss": 1.6873, "step": 16 }, { "epoch": 0.03626666666666667, "grad_norm": 111.8209187578997, "learning_rate": 1.999903810786324e-05, "loss": 2.1603, "step": 17 }, { "epoch": 0.0384, "grad_norm": 61.500262882767906, "learning_rate": 1.999783578606323e-05, "loss": 1.5881, "step": 18 }, { "epoch": 0.04053333333333333, "grad_norm": 195.3438645543274, "learning_rate": 1.9996152616500244e-05, "loss": 3.0391, "step": 19 }, { "epoch": 0.042666666666666665, "grad_norm": 582.3526037490119, "learning_rate": 1.999398868012663e-05, "loss": 2.35, "step": 20 }, { "epoch": 0.0448, "grad_norm": 37.40410071254404, "learning_rate": 1.9991344081017312e-05, "loss": 1.385, "step": 21 }, { "epoch": 0.046933333333333334, "grad_norm": 440.3513371697739, "learning_rate": 1.998821894636477e-05, "loss": 2.4298, "step": 22 }, { "epoch": 0.04906666666666667, "grad_norm": 43.08235812759601, "learning_rate": 1.9984613426472934e-05, "loss": 1.1715, "step": 23 }, { "epoch": 0.0512, "grad_norm": 31.488094572141176, "learning_rate": 1.9980527694749952e-05, "loss": 1.0305, "step": 24 }, { "epoch": 0.05333333333333334, "grad_norm": 31.160498386253675, "learning_rate": 1.9975961947699848e-05, "loss": 0.8896, "step": 25 }, { "epoch": 0.055466666666666664, "grad_norm": 737.782711558036, "learning_rate": 1.9970916404913068e-05, "loss": 1.3138, "step": 26 }, { "epoch": 0.0576, "grad_norm": 66.20369948568924, "learning_rate": 1.996539130905593e-05, "loss": 0.7626, "step": 27 }, { "epoch": 0.05973333333333333, "grad_norm": 30.812436073170076, "learning_rate": 1.9959386925858944e-05, "loss": 0.6847, "step": 28 }, { "epoch": 0.06186666666666667, "grad_norm": 29.298876849093364, "learning_rate": 1.9952903544104026e-05, "loss": 0.5946, "step": 29 }, { "epoch": 0.064, "grad_norm": 28.08736432130866, "learning_rate": 1.9945941475610623e-05, "loss": 0.5467, "step": 30 }, { "epoch": 0.06613333333333334, "grad_norm": 26.806093797987, "learning_rate": 1.9938501055220712e-05, "loss": 0.4314, "step": 31 }, { "epoch": 0.06826666666666667, "grad_norm": 25.39897533634086, "learning_rate": 1.9930582640782684e-05, "loss": 0.3731, "step": 32 }, { "epoch": 0.0704, "grad_norm": 22.19029542164766, "learning_rate": 1.9922186613134152e-05, "loss": 0.3163, "step": 33 }, { "epoch": 0.07253333333333334, "grad_norm": 18.989501274513696, "learning_rate": 1.9913313376083615e-05, "loss": 0.2417, "step": 34 }, { "epoch": 0.07466666666666667, "grad_norm": 15.535323827258397, "learning_rate": 1.9903963356391057e-05, "loss": 0.2095, "step": 35 }, { "epoch": 0.0768, "grad_norm": 12.202379826721002, "learning_rate": 1.9894137003747404e-05, "loss": 0.1806, "step": 36 }, { "epoch": 0.07893333333333333, "grad_norm": 9.743647016337594, "learning_rate": 1.9883834790752904e-05, "loss": 0.1429, "step": 37 }, { "epoch": 0.08106666666666666, "grad_norm": 7.040896957885027, "learning_rate": 1.98730572128944e-05, "loss": 0.1052, "step": 38 }, { "epoch": 0.0832, "grad_norm": 5.850481150614585, "learning_rate": 1.986180478852149e-05, "loss": 0.0877, "step": 39 }, { "epoch": 0.08533333333333333, "grad_norm": 6.351944359015419, "learning_rate": 1.9850078058821615e-05, "loss": 0.1171, "step": 40 }, { "epoch": 0.08746666666666666, "grad_norm": 4.0127764316578345, "learning_rate": 1.9837877587794003e-05, "loss": 0.1014, "step": 41 }, { "epoch": 0.0896, "grad_norm": 2.4450558074878153, "learning_rate": 1.9825203962222573e-05, "loss": 0.0509, "step": 42 }, { "epoch": 0.09173333333333333, "grad_norm": 3.6199437343560463, "learning_rate": 1.9812057791647687e-05, "loss": 0.0976, "step": 43 }, { "epoch": 0.09386666666666667, "grad_norm": 1.804585356085605, "learning_rate": 1.979843970833686e-05, "loss": 0.0723, "step": 44 }, { "epoch": 0.096, "grad_norm": 2.3278790243286953, "learning_rate": 1.9784350367254322e-05, "loss": 0.0565, "step": 45 }, { "epoch": 0.09813333333333334, "grad_norm": 1.6700332259009343, "learning_rate": 1.9769790446029543e-05, "loss": 0.0622, "step": 46 }, { "epoch": 0.10026666666666667, "grad_norm": 5.262573042857478, "learning_rate": 1.9754760644924635e-05, "loss": 0.0994, "step": 47 }, { "epoch": 0.1024, "grad_norm": 2.9582266408641753, "learning_rate": 1.9739261686800662e-05, "loss": 0.0682, "step": 48 }, { "epoch": 0.10453333333333334, "grad_norm": 1.8583246123127024, "learning_rate": 1.9723294317082876e-05, "loss": 0.0703, "step": 49 }, { "epoch": 0.10666666666666667, "grad_norm": 2.223404034041097, "learning_rate": 1.970685930372489e-05, "loss": 0.0706, "step": 50 }, { "epoch": 0.1088, "grad_norm": 1.7370846310374337, "learning_rate": 1.968995743717171e-05, "loss": 0.0593, "step": 51 }, { "epoch": 0.11093333333333333, "grad_norm": 2.1069245641895367, "learning_rate": 1.967258953032174e-05, "loss": 0.0935, "step": 52 }, { "epoch": 0.11306666666666666, "grad_norm": 3.611309521220031, "learning_rate": 1.965475641848767e-05, "loss": 0.0859, "step": 53 }, { "epoch": 0.1152, "grad_norm": 3.0134636967786848, "learning_rate": 1.963645895935632e-05, "loss": 0.0838, "step": 54 }, { "epoch": 0.11733333333333333, "grad_norm": 1.1765247077783991, "learning_rate": 1.9617698032947364e-05, "loss": 0.0575, "step": 55 }, { "epoch": 0.11946666666666667, "grad_norm": 1.413419636552233, "learning_rate": 1.9598474541571045e-05, "loss": 0.0494, "step": 56 }, { "epoch": 0.1216, "grad_norm": 3.049218145912724, "learning_rate": 1.9578789409784727e-05, "loss": 0.059, "step": 57 }, { "epoch": 0.12373333333333333, "grad_norm": 2.319072694901923, "learning_rate": 1.9558643584348478e-05, "loss": 0.0468, "step": 58 }, { "epoch": 0.12586666666666665, "grad_norm": 0.8811274880218757, "learning_rate": 1.9538038034179496e-05, "loss": 0.0277, "step": 59 }, { "epoch": 0.128, "grad_norm": 1.2915088490192281, "learning_rate": 1.951697375030553e-05, "loss": 0.0551, "step": 60 }, { "epoch": 0.13013333333333332, "grad_norm": 1.9735975352508464, "learning_rate": 1.949545174581722e-05, "loss": 0.0583, "step": 61 }, { "epoch": 0.13226666666666667, "grad_norm": 1.192344855848184, "learning_rate": 1.9473473055819348e-05, "loss": 0.0552, "step": 62 }, { "epoch": 0.1344, "grad_norm": 1.2966313742109048, "learning_rate": 1.9451038737381078e-05, "loss": 0.0448, "step": 63 }, { "epoch": 0.13653333333333334, "grad_norm": 1.3825160157020073, "learning_rate": 1.9428149869485113e-05, "loss": 0.0701, "step": 64 }, { "epoch": 0.13866666666666666, "grad_norm": 1.9541094599422788, "learning_rate": 1.940480755297579e-05, "loss": 0.0426, "step": 65 }, { "epoch": 0.1408, "grad_norm": 1.8302152703129704, "learning_rate": 1.9381012910506146e-05, "loss": 0.0586, "step": 66 }, { "epoch": 0.14293333333333333, "grad_norm": 3.0075784502203073, "learning_rate": 1.9356767086483908e-05, "loss": 0.065, "step": 67 }, { "epoch": 0.14506666666666668, "grad_norm": 2.8176882799696488, "learning_rate": 1.9332071247016476e-05, "loss": 0.0585, "step": 68 }, { "epoch": 0.1472, "grad_norm": 1.5885593151199713, "learning_rate": 1.930692657985482e-05, "loss": 0.0444, "step": 69 }, { "epoch": 0.14933333333333335, "grad_norm": 1.6744129803042231, "learning_rate": 1.9281334294336364e-05, "loss": 0.0499, "step": 70 }, { "epoch": 0.15146666666666667, "grad_norm": 722.093964558362, "learning_rate": 1.9255295621326813e-05, "loss": 0.5615, "step": 71 }, { "epoch": 0.1536, "grad_norm": 1.021775336442788, "learning_rate": 1.9228811813160972e-05, "loss": 0.0492, "step": 72 }, { "epoch": 0.15573333333333333, "grad_norm": 1.719180732110971, "learning_rate": 1.9201884143582496e-05, "loss": 0.0416, "step": 73 }, { "epoch": 0.15786666666666666, "grad_norm": 0.801300515899985, "learning_rate": 1.9174513907682634e-05, "loss": 0.0583, "step": 74 }, { "epoch": 0.16, "grad_norm": 0.8934798304001422, "learning_rate": 1.9146702421837952e-05, "loss": 0.0522, "step": 75 }, { "epoch": 0.16213333333333332, "grad_norm": 2.8554464022350388, "learning_rate": 1.9118451023647008e-05, "loss": 0.0509, "step": 76 }, { "epoch": 0.16426666666666667, "grad_norm": 2.016229542572464, "learning_rate": 1.908976107186603e-05, "loss": 0.0424, "step": 77 }, { "epoch": 0.1664, "grad_norm": 1.1387239138997594, "learning_rate": 1.906063394634356e-05, "loss": 0.0605, "step": 78 }, { "epoch": 0.16853333333333334, "grad_norm": 2.333170908799125, "learning_rate": 1.9031071047954095e-05, "loss": 0.0514, "step": 79 }, { "epoch": 0.17066666666666666, "grad_norm": 3.148123690246876, "learning_rate": 1.90010737985307e-05, "loss": 0.0526, "step": 80 }, { "epoch": 0.1728, "grad_norm": 0.9306331994487845, "learning_rate": 1.8970643640796642e-05, "loss": 0.0565, "step": 81 }, { "epoch": 0.17493333333333333, "grad_norm": 1.4757932187911904, "learning_rate": 1.893978203829599e-05, "loss": 0.0596, "step": 82 }, { "epoch": 0.17706666666666668, "grad_norm": 1.5406104511542824, "learning_rate": 1.8908490475323234e-05, "loss": 0.0528, "step": 83 }, { "epoch": 0.1792, "grad_norm": 1.4782922193683028, "learning_rate": 1.887677045685188e-05, "loss": 0.0285, "step": 84 }, { "epoch": 0.18133333333333335, "grad_norm": 1.0965496042734815, "learning_rate": 1.8844623508462093e-05, "loss": 0.0575, "step": 85 }, { "epoch": 0.18346666666666667, "grad_norm": 1.546939219676516, "learning_rate": 1.8812051176267307e-05, "loss": 0.0539, "step": 86 }, { "epoch": 0.1856, "grad_norm": 0.8044353550104301, "learning_rate": 1.877905502683987e-05, "loss": 0.0343, "step": 87 }, { "epoch": 0.18773333333333334, "grad_norm": 1.4879064675453955, "learning_rate": 1.8745636647135693e-05, "loss": 0.0438, "step": 88 }, { "epoch": 0.18986666666666666, "grad_norm": 1.577173528471535, "learning_rate": 1.871179764441794e-05, "loss": 0.0495, "step": 89 }, { "epoch": 0.192, "grad_norm": 1.3084663493341901, "learning_rate": 1.8677539646179706e-05, "loss": 0.0572, "step": 90 }, { "epoch": 0.19413333333333332, "grad_norm": 1.1197066743705792, "learning_rate": 1.8642864300065767e-05, "loss": 0.049, "step": 91 }, { "epoch": 0.19626666666666667, "grad_norm": 2.151010541075887, "learning_rate": 1.8607773273793298e-05, "loss": 0.0447, "step": 92 }, { "epoch": 0.1984, "grad_norm": 2.2954457431315887, "learning_rate": 1.8572268255071718e-05, "loss": 0.057, "step": 93 }, { "epoch": 0.20053333333333334, "grad_norm": 1.5354278499932348, "learning_rate": 1.853635095152147e-05, "loss": 0.0391, "step": 94 }, { "epoch": 0.20266666666666666, "grad_norm": 0.9465445667881486, "learning_rate": 1.8500023090591917e-05, "loss": 0.0377, "step": 95 }, { "epoch": 0.2048, "grad_norm": 1.5138653926594017, "learning_rate": 1.8463286419478256e-05, "loss": 0.0515, "step": 96 }, { "epoch": 0.20693333333333333, "grad_norm": 0.6636533900983109, "learning_rate": 1.8426142705037487e-05, "loss": 0.0422, "step": 97 }, { "epoch": 0.20906666666666668, "grad_norm": 1.8423438762388482, "learning_rate": 1.8388593733703428e-05, "loss": 0.0521, "step": 98 }, { "epoch": 0.2112, "grad_norm": 1.323868663775525, "learning_rate": 1.8350641311400813e-05, "loss": 0.0602, "step": 99 }, { "epoch": 0.21333333333333335, "grad_norm": 1.8098522474981942, "learning_rate": 1.831228726345841e-05, "loss": 0.0588, "step": 100 }, { "epoch": 0.21546666666666667, "grad_norm": 2.0211786324636223, "learning_rate": 1.8273533434521262e-05, "loss": 0.0564, "step": 101 }, { "epoch": 0.2176, "grad_norm": 2.2994083937662713, "learning_rate": 1.8234381688461943e-05, "loss": 0.0506, "step": 102 }, { "epoch": 0.21973333333333334, "grad_norm": 1.9959590414766974, "learning_rate": 1.8194833908290933e-05, "loss": 0.044, "step": 103 }, { "epoch": 0.22186666666666666, "grad_norm": 2.360882638356312, "learning_rate": 1.815489199606603e-05, "loss": 0.059, "step": 104 }, { "epoch": 0.224, "grad_norm": 2.1351366348440677, "learning_rate": 1.8114557872800906e-05, "loss": 0.0476, "step": 105 }, { "epoch": 0.22613333333333333, "grad_norm": 1.3665576177215513, "learning_rate": 1.8073833478372682e-05, "loss": 0.0314, "step": 106 }, { "epoch": 0.22826666666666667, "grad_norm": 0.9922981526651514, "learning_rate": 1.803272077142865e-05, "loss": 0.0444, "step": 107 }, { "epoch": 0.2304, "grad_norm": 1.8075072368975036, "learning_rate": 1.799122172929206e-05, "loss": 0.0486, "step": 108 }, { "epoch": 0.23253333333333334, "grad_norm": 1.5561443820733862, "learning_rate": 1.794933834786702e-05, "loss": 0.0311, "step": 109 }, { "epoch": 0.23466666666666666, "grad_norm": 1.3632115314913158, "learning_rate": 1.7907072641542527e-05, "loss": 0.0665, "step": 110 }, { "epoch": 0.2368, "grad_norm": 1.3537787582097376, "learning_rate": 1.7864426643095537e-05, "loss": 0.0351, "step": 111 }, { "epoch": 0.23893333333333333, "grad_norm": 0.8104851815221553, "learning_rate": 1.782140240359325e-05, "loss": 0.0355, "step": 112 }, { "epoch": 0.24106666666666668, "grad_norm": 1.4449720031557718, "learning_rate": 1.7778001992294426e-05, "loss": 0.0408, "step": 113 }, { "epoch": 0.2432, "grad_norm": 2.1980401957547766, "learning_rate": 1.773422749654988e-05, "loss": 0.0477, "step": 114 }, { "epoch": 0.24533333333333332, "grad_norm": 1.5235705975724492, "learning_rate": 1.769008102170209e-05, "loss": 0.037, "step": 115 }, { "epoch": 0.24746666666666667, "grad_norm": 0.8773714281299343, "learning_rate": 1.7645564690983936e-05, "loss": 0.0356, "step": 116 }, { "epoch": 0.2496, "grad_norm": 0.8857344133803974, "learning_rate": 1.7600680645416583e-05, "loss": 0.0397, "step": 117 }, { "epoch": 0.2517333333333333, "grad_norm": 1.1765135397832847, "learning_rate": 1.7555431043706517e-05, "loss": 0.0388, "step": 118 }, { "epoch": 0.2538666666666667, "grad_norm": 0.7787965832495356, "learning_rate": 1.7509818062141704e-05, "loss": 0.0447, "step": 119 }, { "epoch": 0.256, "grad_norm": 1.1558727376844886, "learning_rate": 1.746384389448694e-05, "loss": 0.0265, "step": 120 }, { "epoch": 0.2581333333333333, "grad_norm": 1.5531094412288022, "learning_rate": 1.7417510751878324e-05, "loss": 0.0571, "step": 121 }, { "epoch": 0.26026666666666665, "grad_norm": 0.740788808106007, "learning_rate": 1.737082086271693e-05, "loss": 0.0501, "step": 122 }, { "epoch": 0.2624, "grad_norm": 0.7886321146252248, "learning_rate": 1.7323776472561625e-05, "loss": 0.0281, "step": 123 }, { "epoch": 0.26453333333333334, "grad_norm": 0.7006144368893459, "learning_rate": 1.727637984402106e-05, "loss": 0.0354, "step": 124 }, { "epoch": 0.26666666666666666, "grad_norm": 0.4967524533271434, "learning_rate": 1.7228633256644854e-05, "loss": 0.0301, "step": 125 }, { "epoch": 0.2688, "grad_norm": 0.9992119536121632, "learning_rate": 1.7180539006813973e-05, "loss": 0.042, "step": 126 }, { "epoch": 0.27093333333333336, "grad_norm": 1.2582964924849702, "learning_rate": 1.713209940763026e-05, "loss": 0.0414, "step": 127 }, { "epoch": 0.2730666666666667, "grad_norm": 0.5320627853997396, "learning_rate": 1.7083316788805212e-05, "loss": 0.0367, "step": 128 }, { "epoch": 0.2752, "grad_norm": 0.5378330469500274, "learning_rate": 1.7034193496547903e-05, "loss": 0.0384, "step": 129 }, { "epoch": 0.2773333333333333, "grad_norm": 9.259419235523216, "learning_rate": 1.6984731893452174e-05, "loss": 0.0687, "step": 130 }, { "epoch": 0.27946666666666664, "grad_norm": 0.7752489260828755, "learning_rate": 1.6934934358382987e-05, "loss": 0.0506, "step": 131 }, { "epoch": 0.2816, "grad_norm": 1.2333741857296412, "learning_rate": 1.6884803286362e-05, "loss": 0.0448, "step": 132 }, { "epoch": 0.28373333333333334, "grad_norm": 1.1992240730463735, "learning_rate": 1.683434108845241e-05, "loss": 0.0504, "step": 133 }, { "epoch": 0.28586666666666666, "grad_norm": 0.7154947006132196, "learning_rate": 1.6783550191642962e-05, "loss": 0.0289, "step": 134 }, { "epoch": 0.288, "grad_norm": 0.6763298081951205, "learning_rate": 1.6732433038731245e-05, "loss": 0.0413, "step": 135 }, { "epoch": 0.29013333333333335, "grad_norm": 1.5327709400902307, "learning_rate": 1.668099208820619e-05, "loss": 0.0568, "step": 136 }, { "epoch": 0.2922666666666667, "grad_norm": 1.413241850948284, "learning_rate": 1.662922981412983e-05, "loss": 0.0529, "step": 137 }, { "epoch": 0.2944, "grad_norm": 1.1244304252976907, "learning_rate": 1.657714870601833e-05, "loss": 0.0582, "step": 138 }, { "epoch": 0.2965333333333333, "grad_norm": 0.5118964217117021, "learning_rate": 1.6524751268722216e-05, "loss": 0.0501, "step": 139 }, { "epoch": 0.2986666666666667, "grad_norm": 0.6930134535710681, "learning_rate": 1.647204002230594e-05, "loss": 0.0341, "step": 140 }, { "epoch": 0.3008, "grad_norm": 0.8574574146847935, "learning_rate": 1.641901750192666e-05, "loss": 0.0317, "step": 141 }, { "epoch": 0.30293333333333333, "grad_norm": 1.253852016789459, "learning_rate": 1.63656862577123e-05, "loss": 0.0391, "step": 142 }, { "epoch": 0.30506666666666665, "grad_norm": 0.6980045449988571, "learning_rate": 1.6312048854638927e-05, "loss": 0.0499, "step": 143 }, { "epoch": 0.3072, "grad_norm": 0.8184777310682656, "learning_rate": 1.6258107872407376e-05, "loss": 0.0529, "step": 144 }, { "epoch": 0.30933333333333335, "grad_norm": 0.5971927997338532, "learning_rate": 1.620386590531917e-05, "loss": 0.0324, "step": 145 }, { "epoch": 0.31146666666666667, "grad_norm": 0.6899390205325759, "learning_rate": 1.614932556215176e-05, "loss": 0.0365, "step": 146 }, { "epoch": 0.3136, "grad_norm": 0.7151754854547785, "learning_rate": 1.609448946603304e-05, "loss": 0.0453, "step": 147 }, { "epoch": 0.3157333333333333, "grad_norm": 0.8834546138842408, "learning_rate": 1.6039360254315213e-05, "loss": 0.0334, "step": 148 }, { "epoch": 0.3178666666666667, "grad_norm": 0.4792748032844571, "learning_rate": 1.598394057844792e-05, "loss": 0.0294, "step": 149 }, { "epoch": 0.32, "grad_norm": 1.0322554725620747, "learning_rate": 1.592823310385073e-05, "loss": 0.0409, "step": 150 }, { "epoch": 0.3221333333333333, "grad_norm": 1.4230091486157987, "learning_rate": 1.5872240509784943e-05, "loss": 0.0585, "step": 151 }, { "epoch": 0.32426666666666665, "grad_norm": 1.2041324899062362, "learning_rate": 1.5815965489224746e-05, "loss": 0.0376, "step": 152 }, { "epoch": 0.3264, "grad_norm": 0.970755585175824, "learning_rate": 1.5759410748727663e-05, "loss": 0.0338, "step": 153 }, { "epoch": 0.32853333333333334, "grad_norm": 1.5293971676249898, "learning_rate": 1.5702579008304403e-05, "loss": 0.0614, "step": 154 }, { "epoch": 0.33066666666666666, "grad_norm": 0.6110517060457243, "learning_rate": 1.5645473001288057e-05, "loss": 0.0312, "step": 155 }, { "epoch": 0.3328, "grad_norm": 1.4352762538394752, "learning_rate": 1.5588095474202597e-05, "loss": 0.0353, "step": 156 }, { "epoch": 0.33493333333333336, "grad_norm": 0.7125171125043145, "learning_rate": 1.5530449186630805e-05, "loss": 0.0318, "step": 157 }, { "epoch": 0.3370666666666667, "grad_norm": 2.2795462202235535, "learning_rate": 1.547253691108156e-05, "loss": 0.0377, "step": 158 }, { "epoch": 0.3392, "grad_norm": 1.0909024623264403, "learning_rate": 1.5414361432856475e-05, "loss": 0.0433, "step": 159 }, { "epoch": 0.3413333333333333, "grad_norm": 0.686857734775932, "learning_rate": 1.5355925549915943e-05, "loss": 0.0476, "step": 160 }, { "epoch": 0.34346666666666664, "grad_norm": 1.0424894974104526, "learning_rate": 1.5297232072744576e-05, "loss": 0.0425, "step": 161 }, { "epoch": 0.3456, "grad_norm": 0.9418678518587029, "learning_rate": 1.5238283824216015e-05, "loss": 0.0496, "step": 162 }, { "epoch": 0.34773333333333334, "grad_norm": 0.5423092727091834, "learning_rate": 1.5179083639457193e-05, "loss": 0.0246, "step": 163 }, { "epoch": 0.34986666666666666, "grad_norm": 0.5755202146273961, "learning_rate": 1.5119634365711955e-05, "loss": 0.0394, "step": 164 }, { "epoch": 0.352, "grad_norm": 0.8124862344582832, "learning_rate": 1.5059938862204126e-05, "loss": 0.046, "step": 165 }, { "epoch": 0.35413333333333336, "grad_norm": 1.289150746306003, "learning_rate": 1.5000000000000002e-05, "loss": 0.037, "step": 166 }, { "epoch": 0.3562666666666667, "grad_norm": 0.9372621548024846, "learning_rate": 1.4939820661870253e-05, "loss": 0.0594, "step": 167 }, { "epoch": 0.3584, "grad_norm": 0.7231113547887756, "learning_rate": 1.4879403742151283e-05, "loss": 0.0437, "step": 168 }, { "epoch": 0.3605333333333333, "grad_norm": 0.922243162100279, "learning_rate": 1.481875214660604e-05, "loss": 0.041, "step": 169 }, { "epoch": 0.3626666666666667, "grad_norm": 0.42231387384182395, "learning_rate": 1.4757868792284231e-05, "loss": 0.0435, "step": 170 }, { "epoch": 0.3648, "grad_norm": 0.7695794091239532, "learning_rate": 1.469675660738206e-05, "loss": 0.0362, "step": 171 }, { "epoch": 0.36693333333333333, "grad_norm": 0.5572037371599261, "learning_rate": 1.463541853110137e-05, "loss": 0.0301, "step": 172 }, { "epoch": 0.36906666666666665, "grad_norm": 0.8890223856167749, "learning_rate": 1.4573857513508297e-05, "loss": 0.0353, "step": 173 }, { "epoch": 0.3712, "grad_norm": 0.5300608334896313, "learning_rate": 1.4512076515391375e-05, "loss": 0.0263, "step": 174 }, { "epoch": 0.37333333333333335, "grad_norm": 0.8762162718993954, "learning_rate": 1.4450078508119148e-05, "loss": 0.0484, "step": 175 }, { "epoch": 0.37546666666666667, "grad_norm": 1.3346645193363964, "learning_rate": 1.4387866473497254e-05, "loss": 0.077, "step": 176 }, { "epoch": 0.3776, "grad_norm": 0.9954685207628413, "learning_rate": 1.4325443403625012e-05, "loss": 0.0555, "step": 177 }, { "epoch": 0.3797333333333333, "grad_norm": 1.8127871372398991, "learning_rate": 1.4262812300751528e-05, "loss": 0.0398, "step": 178 }, { "epoch": 0.3818666666666667, "grad_norm": 0.7047656843698573, "learning_rate": 1.4199976177131283e-05, "loss": 0.02, "step": 179 }, { "epoch": 0.384, "grad_norm": 0.9290073704051591, "learning_rate": 1.4136938054879284e-05, "loss": 0.0396, "step": 180 }, { "epoch": 0.38613333333333333, "grad_norm": 1.2764226119948145, "learning_rate": 1.4073700965825681e-05, "loss": 0.036, "step": 181 }, { "epoch": 0.38826666666666665, "grad_norm": 0.9587223008540513, "learning_rate": 1.4010267951369985e-05, "loss": 0.0525, "step": 182 }, { "epoch": 0.3904, "grad_norm": 0.9618631428283729, "learning_rate": 1.3946642062334765e-05, "loss": 0.0444, "step": 183 }, { "epoch": 0.39253333333333335, "grad_norm": 2.0100658679288435, "learning_rate": 1.3882826358818936e-05, "loss": 0.0436, "step": 184 }, { "epoch": 0.39466666666666667, "grad_norm": 0.9954379375299915, "learning_rate": 1.381882391005058e-05, "loss": 0.04, "step": 185 }, { "epoch": 0.3968, "grad_norm": 1.3141896148114316, "learning_rate": 1.3754637794239303e-05, "loss": 0.0334, "step": 186 }, { "epoch": 0.3989333333333333, "grad_norm": 0.90730269049163, "learning_rate": 1.3690271098428234e-05, "loss": 0.0511, "step": 187 }, { "epoch": 0.4010666666666667, "grad_norm": 1.2414394032444556, "learning_rate": 1.362572691834553e-05, "loss": 0.0362, "step": 188 }, { "epoch": 0.4032, "grad_norm": 1.0097746588180307, "learning_rate": 1.356100835825547e-05, "loss": 0.0318, "step": 189 }, { "epoch": 0.4053333333333333, "grad_norm": 0.9233850635774495, "learning_rate": 1.3496118530809195e-05, "loss": 0.0351, "step": 190 }, { "epoch": 0.40746666666666664, "grad_norm": 0.5816593448374567, "learning_rate": 1.3431060556894959e-05, "loss": 0.0431, "step": 191 }, { "epoch": 0.4096, "grad_norm": 1.405582350574752, "learning_rate": 1.3365837565488065e-05, "loss": 0.036, "step": 192 }, { "epoch": 0.41173333333333334, "grad_norm": 0.7483065796170301, "learning_rate": 1.3300452693500358e-05, "loss": 0.0267, "step": 193 }, { "epoch": 0.41386666666666666, "grad_norm": 0.708426732185897, "learning_rate": 1.3234909085629362e-05, "loss": 0.0315, "step": 194 }, { "epoch": 0.416, "grad_norm": 0.7844907601400196, "learning_rate": 1.316920989420703e-05, "loss": 0.0238, "step": 195 }, { "epoch": 0.41813333333333336, "grad_norm": 0.45772582218203484, "learning_rate": 1.3103358279048136e-05, "loss": 0.0235, "step": 196 }, { "epoch": 0.4202666666666667, "grad_norm": 2.0369880222798344, "learning_rate": 1.30373574072983e-05, "loss": 0.0399, "step": 197 }, { "epoch": 0.4224, "grad_norm": 1.0442049886874567, "learning_rate": 1.2971210453281675e-05, "loss": 0.0326, "step": 198 }, { "epoch": 0.4245333333333333, "grad_norm": 0.8079361297617966, "learning_rate": 1.2904920598348252e-05, "loss": 0.0343, "step": 199 }, { "epoch": 0.4266666666666667, "grad_norm": 0.5328227683903852, "learning_rate": 1.2838491030720882e-05, "loss": 0.04, "step": 200 }, { "epoch": 0.4288, "grad_norm": 1.0351850053207556, "learning_rate": 1.2771924945341906e-05, "loss": 0.0389, "step": 201 }, { "epoch": 0.43093333333333333, "grad_norm": 1.6420563344834735, "learning_rate": 1.2705225543719537e-05, "loss": 0.0469, "step": 202 }, { "epoch": 0.43306666666666666, "grad_norm": 0.8756136800321246, "learning_rate": 1.2638396033773836e-05, "loss": 0.0294, "step": 203 }, { "epoch": 0.4352, "grad_norm": 0.5048390094407171, "learning_rate": 1.257143962968246e-05, "loss": 0.028, "step": 204 }, { "epoch": 0.43733333333333335, "grad_norm": 0.5062705845684266, "learning_rate": 1.250435955172606e-05, "loss": 0.0257, "step": 205 }, { "epoch": 0.43946666666666667, "grad_norm": 0.6946077596533794, "learning_rate": 1.2437159026133397e-05, "loss": 0.036, "step": 206 }, { "epoch": 0.4416, "grad_norm": 0.4955713113749287, "learning_rate": 1.236984128492619e-05, "loss": 0.0424, "step": 207 }, { "epoch": 0.4437333333333333, "grad_norm": 0.5002990969185134, "learning_rate": 1.230240956576367e-05, "loss": 0.0268, "step": 208 }, { "epoch": 0.4458666666666667, "grad_norm": 0.6499936859427997, "learning_rate": 1.2234867111786851e-05, "loss": 0.0374, "step": 209 }, { "epoch": 0.448, "grad_norm": 0.796943745498357, "learning_rate": 1.2167217171462566e-05, "loss": 0.0318, "step": 210 }, { "epoch": 0.45013333333333333, "grad_norm": 0.8497064365798689, "learning_rate": 1.2099462998427211e-05, "loss": 0.0296, "step": 211 }, { "epoch": 0.45226666666666665, "grad_norm": 0.5517348061773629, "learning_rate": 1.2031607851330282e-05, "loss": 0.0192, "step": 212 }, { "epoch": 0.4544, "grad_norm": 0.9985729561704767, "learning_rate": 1.1963654993677645e-05, "loss": 0.039, "step": 213 }, { "epoch": 0.45653333333333335, "grad_norm": 0.6670151650802995, "learning_rate": 1.189560769367456e-05, "loss": 0.0428, "step": 214 }, { "epoch": 0.45866666666666667, "grad_norm": 1.6000545490530746, "learning_rate": 1.1827469224068531e-05, "loss": 0.0558, "step": 215 }, { "epoch": 0.4608, "grad_norm": 1.1784477994642049, "learning_rate": 1.1759242861991855e-05, "loss": 0.0529, "step": 216 }, { "epoch": 0.4629333333333333, "grad_norm": 0.9235561072658854, "learning_rate": 1.1690931888804055e-05, "loss": 0.0342, "step": 217 }, { "epoch": 0.4650666666666667, "grad_norm": 0.604794183600379, "learning_rate": 1.1622539589934027e-05, "loss": 0.0391, "step": 218 }, { "epoch": 0.4672, "grad_norm": 0.4633332588771442, "learning_rate": 1.155406925472205e-05, "loss": 0.0227, "step": 219 }, { "epoch": 0.4693333333333333, "grad_norm": 0.7264835488117962, "learning_rate": 1.148552417626157e-05, "loss": 0.0351, "step": 220 }, { "epoch": 0.47146666666666665, "grad_norm": 0.733659081652025, "learning_rate": 1.1416907651240826e-05, "loss": 0.0465, "step": 221 }, { "epoch": 0.4736, "grad_norm": 0.8049147485126275, "learning_rate": 1.1348222979784289e-05, "loss": 0.0407, "step": 222 }, { "epoch": 0.47573333333333334, "grad_norm": 0.775576870952529, "learning_rate": 1.1279473465293953e-05, "loss": 0.0373, "step": 223 }, { "epoch": 0.47786666666666666, "grad_norm": 1.237283998006661, "learning_rate": 1.1210662414290439e-05, "loss": 0.0482, "step": 224 }, { "epoch": 0.48, "grad_norm": 0.6740351828565961, "learning_rate": 1.1141793136253987e-05, "loss": 0.0405, "step": 225 }, { "epoch": 0.48213333333333336, "grad_norm": 1.2497678974651796, "learning_rate": 1.107286894346527e-05, "loss": 0.0313, "step": 226 }, { "epoch": 0.4842666666666667, "grad_norm": 0.6220316755005454, "learning_rate": 1.1003893150846103e-05, "loss": 0.0332, "step": 227 }, { "epoch": 0.4864, "grad_norm": 0.6899190802375788, "learning_rate": 1.09348690758e-05, "loss": 0.0444, "step": 228 }, { "epoch": 0.4885333333333333, "grad_norm": 0.8788424905334975, "learning_rate": 1.0865800038052632e-05, "loss": 0.0301, "step": 229 }, { "epoch": 0.49066666666666664, "grad_norm": 0.9525057607599884, "learning_rate": 1.0796689359492154e-05, "loss": 0.031, "step": 230 }, { "epoch": 0.4928, "grad_norm": 0.45365011027832236, "learning_rate": 1.072754036400944e-05, "loss": 0.0347, "step": 231 }, { "epoch": 0.49493333333333334, "grad_norm": 0.5783847690812823, "learning_rate": 1.0658356377338235e-05, "loss": 0.0301, "step": 232 }, { "epoch": 0.49706666666666666, "grad_norm": 0.6938862695154436, "learning_rate": 1.0589140726895179e-05, "loss": 0.0346, "step": 233 }, { "epoch": 0.4992, "grad_norm": 0.5696171257838482, "learning_rate": 1.0519896741619803e-05, "loss": 0.0383, "step": 234 }, { "epoch": 0.5013333333333333, "grad_norm": 0.9730739034465179, "learning_rate": 1.0450627751814396e-05, "loss": 0.0365, "step": 235 }, { "epoch": 0.5034666666666666, "grad_norm": 0.6738632209266081, "learning_rate": 1.0381337088983838e-05, "loss": 0.0495, "step": 236 }, { "epoch": 0.5056, "grad_norm": 0.9293769576273838, "learning_rate": 1.0312028085675393e-05, "loss": 0.0376, "step": 237 }, { "epoch": 0.5077333333333334, "grad_norm": 0.7730901514446904, "learning_rate": 1.0242704075318402e-05, "loss": 0.0256, "step": 238 }, { "epoch": 0.5098666666666667, "grad_norm": 0.9243576819662022, "learning_rate": 1.0173368392063978e-05, "loss": 0.0368, "step": 239 }, { "epoch": 0.512, "grad_norm": 0.6106740685878067, "learning_rate": 1.0104024370624644e-05, "loss": 0.0331, "step": 240 }, { "epoch": 0.5141333333333333, "grad_norm": 0.5471807046738713, "learning_rate": 1.0034675346113945e-05, "loss": 0.032, "step": 241 }, { "epoch": 0.5162666666666667, "grad_norm": 1.0112509834033534, "learning_rate": 9.965324653886057e-06, "loss": 0.0372, "step": 242 }, { "epoch": 0.5184, "grad_norm": 1.22816810696457, "learning_rate": 9.89597562937536e-06, "loss": 0.0333, "step": 243 }, { "epoch": 0.5205333333333333, "grad_norm": 0.7037349725664515, "learning_rate": 9.826631607936024e-06, "loss": 0.0467, "step": 244 }, { "epoch": 0.5226666666666666, "grad_norm": 1.2241925260548945, "learning_rate": 9.757295924681601e-06, "loss": 0.0425, "step": 245 }, { "epoch": 0.5248, "grad_norm": 0.5625363217551341, "learning_rate": 9.687971914324607e-06, "loss": 0.0447, "step": 246 }, { "epoch": 0.5269333333333334, "grad_norm": 0.5699653225245445, "learning_rate": 9.618662911016165e-06, "loss": 0.0319, "step": 247 }, { "epoch": 0.5290666666666667, "grad_norm": 0.7314163846872603, "learning_rate": 9.54937224818561e-06, "loss": 0.0328, "step": 248 }, { "epoch": 0.5312, "grad_norm": 1.3643278717817504, "learning_rate": 9.480103258380198e-06, "loss": 0.0478, "step": 249 }, { "epoch": 0.5333333333333333, "grad_norm": 0.4918918706062453, "learning_rate": 9.410859273104823e-06, "loss": 0.0302, "step": 250 }, { "epoch": 0.5354666666666666, "grad_norm": 0.6721247059889798, "learning_rate": 9.341643622661768e-06, "loss": 0.029, "step": 251 }, { "epoch": 0.5376, "grad_norm": 0.9810888072611974, "learning_rate": 9.272459635990563e-06, "loss": 0.0248, "step": 252 }, { "epoch": 0.5397333333333333, "grad_norm": 0.4876155527039283, "learning_rate": 9.20331064050785e-06, "loss": 0.0213, "step": 253 }, { "epoch": 0.5418666666666667, "grad_norm": 0.8358072464072603, "learning_rate": 9.134199961947368e-06, "loss": 0.0422, "step": 254 }, { "epoch": 0.544, "grad_norm": 0.7506843334438347, "learning_rate": 9.065130924199998e-06, "loss": 0.0381, "step": 255 }, { "epoch": 0.5461333333333334, "grad_norm": 0.3536923477560136, "learning_rate": 8.996106849153897e-06, "loss": 0.0361, "step": 256 }, { "epoch": 0.5482666666666667, "grad_norm": 0.5200796089003477, "learning_rate": 8.927131056534734e-06, "loss": 0.0316, "step": 257 }, { "epoch": 0.5504, "grad_norm": 1.0411697648370726, "learning_rate": 8.858206863746018e-06, "loss": 0.0395, "step": 258 }, { "epoch": 0.5525333333333333, "grad_norm": 0.5824473409964944, "learning_rate": 8.789337585709565e-06, "loss": 0.0373, "step": 259 }, { "epoch": 0.5546666666666666, "grad_norm": 0.511942343514825, "learning_rate": 8.720526534706052e-06, "loss": 0.0297, "step": 260 }, { "epoch": 0.5568, "grad_norm": 0.5081243142225651, "learning_rate": 8.651777020215713e-06, "loss": 0.0302, "step": 261 }, { "epoch": 0.5589333333333333, "grad_norm": 0.5106721938666013, "learning_rate": 8.583092348759176e-06, "loss": 0.033, "step": 262 }, { "epoch": 0.5610666666666667, "grad_norm": 0.5956281593151138, "learning_rate": 8.514475823738431e-06, "loss": 0.0346, "step": 263 }, { "epoch": 0.5632, "grad_norm": 0.47917214228596317, "learning_rate": 8.445930745277953e-06, "loss": 0.0233, "step": 264 }, { "epoch": 0.5653333333333334, "grad_norm": 0.9189179502445622, "learning_rate": 8.377460410065973e-06, "loss": 0.0252, "step": 265 }, { "epoch": 0.5674666666666667, "grad_norm": 0.7043369220639759, "learning_rate": 8.309068111195947e-06, "loss": 0.0328, "step": 266 }, { "epoch": 0.5696, "grad_norm": 0.5510595724210231, "learning_rate": 8.240757138008149e-06, "loss": 0.0283, "step": 267 }, { "epoch": 0.5717333333333333, "grad_norm": 0.8496711751164575, "learning_rate": 8.172530775931476e-06, "loss": 0.0436, "step": 268 }, { "epoch": 0.5738666666666666, "grad_norm": 0.4503694242791863, "learning_rate": 8.104392306325442e-06, "loss": 0.0359, "step": 269 }, { "epoch": 0.576, "grad_norm": 0.7732096548912992, "learning_rate": 8.036345006322358e-06, "loss": 0.0364, "step": 270 }, { "epoch": 0.5781333333333334, "grad_norm": 0.4599733594804368, "learning_rate": 7.96839214866972e-06, "loss": 0.0221, "step": 271 }, { "epoch": 0.5802666666666667, "grad_norm": 1.336428863557948, "learning_rate": 7.900537001572792e-06, "loss": 0.0309, "step": 272 }, { "epoch": 0.5824, "grad_norm": 0.5843504500873555, "learning_rate": 7.832782828537437e-06, "loss": 0.0412, "step": 273 }, { "epoch": 0.5845333333333333, "grad_norm": 1.0789524676382762, "learning_rate": 7.765132888213147e-06, "loss": 0.0384, "step": 274 }, { "epoch": 0.5866666666666667, "grad_norm": 0.737096776428912, "learning_rate": 7.697590434236331e-06, "loss": 0.0501, "step": 275 }, { "epoch": 0.5888, "grad_norm": 0.8043391582754201, "learning_rate": 7.630158715073813e-06, "loss": 0.0215, "step": 276 }, { "epoch": 0.5909333333333333, "grad_norm": 0.635341870485607, "learning_rate": 7.56284097386661e-06, "loss": 0.0195, "step": 277 }, { "epoch": 0.5930666666666666, "grad_norm": 0.593058090471716, "learning_rate": 7.495640448273947e-06, "loss": 0.0288, "step": 278 }, { "epoch": 0.5952, "grad_norm": 0.8510673331441703, "learning_rate": 7.428560370317542e-06, "loss": 0.0186, "step": 279 }, { "epoch": 0.5973333333333334, "grad_norm": 0.9565592779805303, "learning_rate": 7.361603966226165e-06, "loss": 0.0294, "step": 280 }, { "epoch": 0.5994666666666667, "grad_norm": 0.7591784894186213, "learning_rate": 7.294774456280466e-06, "loss": 0.0282, "step": 281 }, { "epoch": 0.6016, "grad_norm": 0.42677489159298454, "learning_rate": 7.228075054658096e-06, "loss": 0.0409, "step": 282 }, { "epoch": 0.6037333333333333, "grad_norm": 0.5627212818811943, "learning_rate": 7.1615089692791225e-06, "loss": 0.0276, "step": 283 }, { "epoch": 0.6058666666666667, "grad_norm": 0.39183013002706013, "learning_rate": 7.095079401651749e-06, "loss": 0.0257, "step": 284 }, { "epoch": 0.608, "grad_norm": 0.4106091763231696, "learning_rate": 7.028789546718327e-06, "loss": 0.022, "step": 285 }, { "epoch": 0.6101333333333333, "grad_norm": 0.7820664969598445, "learning_rate": 6.962642592701703e-06, "loss": 0.0398, "step": 286 }, { "epoch": 0.6122666666666666, "grad_norm": 0.6711734140968976, "learning_rate": 6.896641720951868e-06, "loss": 0.0319, "step": 287 }, { "epoch": 0.6144, "grad_norm": 0.8036347103770932, "learning_rate": 6.8307901057929735e-06, "loss": 0.0301, "step": 288 }, { "epoch": 0.6165333333333334, "grad_norm": 0.4343557664695177, "learning_rate": 6.765090914370643e-06, "loss": 0.0316, "step": 289 }, { "epoch": 0.6186666666666667, "grad_norm": 0.9799509282210106, "learning_rate": 6.6995473064996455e-06, "loss": 0.036, "step": 290 }, { "epoch": 0.6208, "grad_norm": 0.44518139913001936, "learning_rate": 6.634162434511939e-06, "loss": 0.0256, "step": 291 }, { "epoch": 0.6229333333333333, "grad_norm": 0.6499908491163479, "learning_rate": 6.568939443105045e-06, "loss": 0.0458, "step": 292 }, { "epoch": 0.6250666666666667, "grad_norm": 0.8496501466573976, "learning_rate": 6.5038814691908095e-06, "loss": 0.0292, "step": 293 }, { "epoch": 0.6272, "grad_norm": 0.5981028686330536, "learning_rate": 6.438991641744531e-06, "loss": 0.0251, "step": 294 }, { "epoch": 0.6293333333333333, "grad_norm": 0.8110400012909722, "learning_rate": 6.374273081654474e-06, "loss": 0.0301, "step": 295 }, { "epoch": 0.6314666666666666, "grad_norm": 0.4891292127480029, "learning_rate": 6.30972890157177e-06, "loss": 0.0224, "step": 296 }, { "epoch": 0.6336, "grad_norm": 0.598714016686363, "learning_rate": 6.245362205760703e-06, "loss": 0.0273, "step": 297 }, { "epoch": 0.6357333333333334, "grad_norm": 1.117871466722133, "learning_rate": 6.1811760899494276e-06, "loss": 0.0347, "step": 298 }, { "epoch": 0.6378666666666667, "grad_norm": 1.098050969004808, "learning_rate": 6.117173641181064e-06, "loss": 0.0468, "step": 299 }, { "epoch": 0.64, "grad_norm": 0.8704162336865564, "learning_rate": 6.053357937665237e-06, "loss": 0.0473, "step": 300 }, { "epoch": 0.6421333333333333, "grad_norm": 0.26723758613522036, "learning_rate": 5.9897320486300195e-06, "loss": 0.0212, "step": 301 }, { "epoch": 0.6442666666666667, "grad_norm": 0.793058594700282, "learning_rate": 5.926299034174321e-06, "loss": 0.0323, "step": 302 }, { "epoch": 0.6464, "grad_norm": 0.8106520095015479, "learning_rate": 5.863061945120719e-06, "loss": 0.0361, "step": 303 }, { "epoch": 0.6485333333333333, "grad_norm": 0.7749475240302227, "learning_rate": 5.800023822868717e-06, "loss": 0.0271, "step": 304 }, { "epoch": 0.6506666666666666, "grad_norm": 0.6182100559731326, "learning_rate": 5.737187699248474e-06, "loss": 0.0277, "step": 305 }, { "epoch": 0.6528, "grad_norm": 0.7280936837269392, "learning_rate": 5.674556596374993e-06, "loss": 0.0348, "step": 306 }, { "epoch": 0.6549333333333334, "grad_norm": 0.49499465678540155, "learning_rate": 5.612133526502752e-06, "loss": 0.0378, "step": 307 }, { "epoch": 0.6570666666666667, "grad_norm": 0.48581236356550417, "learning_rate": 5.549921491880856e-06, "loss": 0.0358, "step": 308 }, { "epoch": 0.6592, "grad_norm": 0.9174556713312179, "learning_rate": 5.487923484608629e-06, "loss": 0.0326, "step": 309 }, { "epoch": 0.6613333333333333, "grad_norm": 0.566499446081699, "learning_rate": 5.4261424864917075e-06, "loss": 0.0199, "step": 310 }, { "epoch": 0.6634666666666666, "grad_norm": 1.137197461480215, "learning_rate": 5.364581468898629e-06, "loss": 0.0313, "step": 311 }, { "epoch": 0.6656, "grad_norm": 0.4475893108260262, "learning_rate": 5.3032433926179395e-06, "loss": 0.0227, "step": 312 }, { "epoch": 0.6677333333333333, "grad_norm": 0.5095854555003005, "learning_rate": 5.242131207715768e-06, "loss": 0.0351, "step": 313 }, { "epoch": 0.6698666666666667, "grad_norm": 0.5322845841523259, "learning_rate": 5.181247853393961e-06, "loss": 0.0357, "step": 314 }, { "epoch": 0.672, "grad_norm": 0.8355127340278774, "learning_rate": 5.120596257848716e-06, "loss": 0.0245, "step": 315 }, { "epoch": 0.6741333333333334, "grad_norm": 1.198148615361382, "learning_rate": 5.060179338129754e-06, "loss": 0.0282, "step": 316 }, { "epoch": 0.6762666666666667, "grad_norm": 0.77281962005305, "learning_rate": 5.000000000000003e-06, "loss": 0.0304, "step": 317 }, { "epoch": 0.6784, "grad_norm": 0.6062452489615262, "learning_rate": 4.940061137795876e-06, "loss": 0.0353, "step": 318 }, { "epoch": 0.6805333333333333, "grad_norm": 0.43421611052260756, "learning_rate": 4.8803656342880475e-06, "loss": 0.0231, "step": 319 }, { "epoch": 0.6826666666666666, "grad_norm": 0.4402644027282258, "learning_rate": 4.82091636054281e-06, "loss": 0.0275, "step": 320 }, { "epoch": 0.6848, "grad_norm": 0.4135727836547369, "learning_rate": 4.7617161757839895e-06, "loss": 0.0216, "step": 321 }, { "epoch": 0.6869333333333333, "grad_norm": 0.5474933678166377, "learning_rate": 4.702767927255432e-06, "loss": 0.0405, "step": 322 }, { "epoch": 0.6890666666666667, "grad_norm": 0.477609432901859, "learning_rate": 4.644074450084061e-06, "loss": 0.0256, "step": 323 }, { "epoch": 0.6912, "grad_norm": 0.3001594877169152, "learning_rate": 4.5856385671435285e-06, "loss": 0.0234, "step": 324 }, { "epoch": 0.6933333333333334, "grad_norm": 0.45904329239585984, "learning_rate": 4.527463088918439e-06, "loss": 0.0208, "step": 325 }, { "epoch": 0.6954666666666667, "grad_norm": 0.8288269971471939, "learning_rate": 4.469550813369198e-06, "loss": 0.0264, "step": 326 }, { "epoch": 0.6976, "grad_norm": 0.610033984986427, "learning_rate": 4.411904525797408e-06, "loss": 0.0228, "step": 327 }, { "epoch": 0.6997333333333333, "grad_norm": 0.45459905485331176, "learning_rate": 4.354526998711945e-06, "loss": 0.0339, "step": 328 }, { "epoch": 0.7018666666666666, "grad_norm": 0.6530795623366433, "learning_rate": 4.297420991695598e-06, "loss": 0.029, "step": 329 }, { "epoch": 0.704, "grad_norm": 0.7765482306498186, "learning_rate": 4.240589251272342e-06, "loss": 0.0218, "step": 330 }, { "epoch": 0.7061333333333333, "grad_norm": 0.43966478027928985, "learning_rate": 4.184034510775258e-06, "loss": 0.0206, "step": 331 }, { "epoch": 0.7082666666666667, "grad_norm": 1.3894283227382265, "learning_rate": 4.127759490215057e-06, "loss": 0.0318, "step": 332 }, { "epoch": 0.7104, "grad_norm": 0.37331468443451093, "learning_rate": 4.0717668961492725e-06, "loss": 0.019, "step": 333 }, { "epoch": 0.7125333333333334, "grad_norm": 0.673458235705654, "learning_rate": 4.016059421552082e-06, "loss": 0.0377, "step": 334 }, { "epoch": 0.7146666666666667, "grad_norm": 0.6467225984317707, "learning_rate": 3.9606397456847875e-06, "loss": 0.0207, "step": 335 }, { "epoch": 0.7168, "grad_norm": 0.9111713839294915, "learning_rate": 3.905510533966959e-06, "loss": 0.0298, "step": 336 }, { "epoch": 0.7189333333333333, "grad_norm": 0.3640453441847698, "learning_rate": 3.850674437848243e-06, "loss": 0.0153, "step": 337 }, { "epoch": 0.7210666666666666, "grad_norm": 0.6775424314273997, "learning_rate": 3.79613409468083e-06, "loss": 0.0531, "step": 338 }, { "epoch": 0.7232, "grad_norm": 0.45312781292115256, "learning_rate": 3.7418921275926245e-06, "loss": 0.0328, "step": 339 }, { "epoch": 0.7253333333333334, "grad_norm": 0.6234872313783427, "learning_rate": 3.687951145361073e-06, "loss": 0.0393, "step": 340 }, { "epoch": 0.7274666666666667, "grad_norm": 1.2061170185300967, "learning_rate": 3.634313742287703e-06, "loss": 0.0468, "step": 341 }, { "epoch": 0.7296, "grad_norm": 0.5833352463057135, "learning_rate": 3.5809824980733445e-06, "loss": 0.0299, "step": 342 }, { "epoch": 0.7317333333333333, "grad_norm": 0.36837294327024817, "learning_rate": 3.527959977694061e-06, "loss": 0.0251, "step": 343 }, { "epoch": 0.7338666666666667, "grad_norm": 0.4810227916945505, "learning_rate": 3.475248731277785e-06, "loss": 0.0243, "step": 344 }, { "epoch": 0.736, "grad_norm": 0.5574408320117392, "learning_rate": 3.422851293981676e-06, "loss": 0.0251, "step": 345 }, { "epoch": 0.7381333333333333, "grad_norm": 0.6214665684822743, "learning_rate": 3.3707701858701736e-06, "loss": 0.0211, "step": 346 }, { "epoch": 0.7402666666666666, "grad_norm": 0.7289466503971875, "learning_rate": 3.3190079117938167e-06, "loss": 0.0384, "step": 347 }, { "epoch": 0.7424, "grad_norm": 0.7749220871898594, "learning_rate": 3.2675669612687565e-06, "loss": 0.0482, "step": 348 }, { "epoch": 0.7445333333333334, "grad_norm": 0.5621519345620897, "learning_rate": 3.2164498083570393e-06, "loss": 0.0307, "step": 349 }, { "epoch": 0.7466666666666667, "grad_norm": 0.6129914976186284, "learning_rate": 3.165658911547592e-06, "loss": 0.0339, "step": 350 }, { "epoch": 0.7488, "grad_norm": 0.7792497128436966, "learning_rate": 3.115196713638e-06, "loss": 0.0413, "step": 351 }, { "epoch": 0.7509333333333333, "grad_norm": 0.8058659414208739, "learning_rate": 3.0650656416170155e-06, "loss": 0.0321, "step": 352 }, { "epoch": 0.7530666666666667, "grad_norm": 1.0381062746549443, "learning_rate": 3.0152681065478252e-06, "loss": 0.0308, "step": 353 }, { "epoch": 0.7552, "grad_norm": 1.0129245619456944, "learning_rate": 2.965806503452098e-06, "loss": 0.0336, "step": 354 }, { "epoch": 0.7573333333333333, "grad_norm": 0.47151923583442085, "learning_rate": 2.9166832111947953e-06, "loss": 0.026, "step": 355 }, { "epoch": 0.7594666666666666, "grad_norm": 0.5933910542638863, "learning_rate": 2.8679005923697444e-06, "loss": 0.0274, "step": 356 }, { "epoch": 0.7616, "grad_norm": 0.6226875227172493, "learning_rate": 2.819460993186032e-06, "loss": 0.0256, "step": 357 }, { "epoch": 0.7637333333333334, "grad_norm": 0.6679506328900092, "learning_rate": 2.7713667433551495e-06, "loss": 0.0252, "step": 358 }, { "epoch": 0.7658666666666667, "grad_norm": 0.2635830672351724, "learning_rate": 2.7236201559789456e-06, "loss": 0.0208, "step": 359 }, { "epoch": 0.768, "grad_norm": 0.3835186718580681, "learning_rate": 2.6762235274383775e-06, "loss": 0.0253, "step": 360 }, { "epoch": 0.7701333333333333, "grad_norm": 0.6251532094302285, "learning_rate": 2.629179137283071e-06, "loss": 0.0209, "step": 361 }, { "epoch": 0.7722666666666667, "grad_norm": 0.6846444745004698, "learning_rate": 2.582489248121677e-06, "loss": 0.0284, "step": 362 }, { "epoch": 0.7744, "grad_norm": 0.5713976117645878, "learning_rate": 2.5361561055130625e-06, "loss": 0.028, "step": 363 }, { "epoch": 0.7765333333333333, "grad_norm": 0.5026126924117239, "learning_rate": 2.490181937858296e-06, "loss": 0.0257, "step": 364 }, { "epoch": 0.7786666666666666, "grad_norm": 0.6122792257804385, "learning_rate": 2.444568956293486e-06, "loss": 0.0341, "step": 365 }, { "epoch": 0.7808, "grad_norm": 0.40370556320553413, "learning_rate": 2.3993193545834182e-06, "loss": 0.0234, "step": 366 }, { "epoch": 0.7829333333333334, "grad_norm": 0.2777995491899089, "learning_rate": 2.3544353090160664e-06, "loss": 0.0143, "step": 367 }, { "epoch": 0.7850666666666667, "grad_norm": 0.602757764248379, "learning_rate": 2.3099189782979126e-06, "loss": 0.0227, "step": 368 }, { "epoch": 0.7872, "grad_norm": 0.5876930591519407, "learning_rate": 2.265772503450122e-06, "loss": 0.0153, "step": 369 }, { "epoch": 0.7893333333333333, "grad_norm": 0.6846826034507567, "learning_rate": 2.2219980077055756e-06, "loss": 0.0268, "step": 370 }, { "epoch": 0.7914666666666667, "grad_norm": 0.5162086979233491, "learning_rate": 2.178597596406752e-06, "loss": 0.018, "step": 371 }, { "epoch": 0.7936, "grad_norm": 0.5698113191934069, "learning_rate": 2.1355733569044633e-06, "loss": 0.042, "step": 372 }, { "epoch": 0.7957333333333333, "grad_norm": 0.5331086272206527, "learning_rate": 2.092927358457476e-06, "loss": 0.0242, "step": 373 }, { "epoch": 0.7978666666666666, "grad_norm": 0.7833847471910158, "learning_rate": 2.0506616521329803e-06, "loss": 0.0346, "step": 374 }, { "epoch": 0.8, "grad_norm": 0.35346719003372534, "learning_rate": 2.008778270707944e-06, "loss": 0.0236, "step": 375 }, { "epoch": 0.8021333333333334, "grad_norm": 0.7443011312344207, "learning_rate": 1.9672792285713528e-06, "loss": 0.0353, "step": 376 }, { "epoch": 0.8042666666666667, "grad_norm": 0.2802287306818556, "learning_rate": 1.9261665216273197e-06, "loss": 0.0165, "step": 377 }, { "epoch": 0.8064, "grad_norm": 0.4158465877007506, "learning_rate": 1.8854421271990964e-06, "loss": 0.0342, "step": 378 }, { "epoch": 0.8085333333333333, "grad_norm": 0.6518427178413402, "learning_rate": 1.845108003933972e-06, "loss": 0.0262, "step": 379 }, { "epoch": 0.8106666666666666, "grad_norm": 0.6027500567203649, "learning_rate": 1.8051660917090718e-06, "loss": 0.0412, "step": 380 }, { "epoch": 0.8128, "grad_norm": 0.757207440052833, "learning_rate": 1.7656183115380577e-06, "loss": 0.0328, "step": 381 }, { "epoch": 0.8149333333333333, "grad_norm": 0.8293533798251376, "learning_rate": 1.7264665654787405e-06, "loss": 0.0237, "step": 382 }, { "epoch": 0.8170666666666667, "grad_norm": 0.7509669455316721, "learning_rate": 1.6877127365415924e-06, "loss": 0.0214, "step": 383 }, { "epoch": 0.8192, "grad_norm": 0.5014248712232455, "learning_rate": 1.6493586885991908e-06, "loss": 0.0387, "step": 384 }, { "epoch": 0.8213333333333334, "grad_norm": 0.8748237393912051, "learning_rate": 1.6114062662965757e-06, "loss": 0.0317, "step": 385 }, { "epoch": 0.8234666666666667, "grad_norm": 0.7770936634683773, "learning_rate": 1.5738572949625163e-06, "loss": 0.0347, "step": 386 }, { "epoch": 0.8256, "grad_norm": 0.722834887813668, "learning_rate": 1.536713580521746e-06, "loss": 0.0384, "step": 387 }, { "epoch": 0.8277333333333333, "grad_norm": 0.5381479186787534, "learning_rate": 1.4999769094080853e-06, "loss": 0.0173, "step": 388 }, { "epoch": 0.8298666666666666, "grad_norm": 0.5633652545130038, "learning_rate": 1.4636490484785316e-06, "loss": 0.0335, "step": 389 }, { "epoch": 0.832, "grad_norm": 0.7401945131898912, "learning_rate": 1.4277317449282834e-06, "loss": 0.0475, "step": 390 }, { "epoch": 0.8341333333333333, "grad_norm": 0.5573956901387076, "learning_rate": 1.3922267262067025e-06, "loss": 0.0212, "step": 391 }, { "epoch": 0.8362666666666667, "grad_norm": 0.6594976014910652, "learning_rate": 1.3571356999342366e-06, "loss": 0.0223, "step": 392 }, { "epoch": 0.8384, "grad_norm": 0.39444202398047057, "learning_rate": 1.3224603538202929e-06, "loss": 0.0288, "step": 393 }, { "epoch": 0.8405333333333334, "grad_norm": 0.6517753855436424, "learning_rate": 1.28820235558206e-06, "loss": 0.0309, "step": 394 }, { "epoch": 0.8426666666666667, "grad_norm": 0.47554735483988925, "learning_rate": 1.2543633528643084e-06, "loss": 0.025, "step": 395 }, { "epoch": 0.8448, "grad_norm": 0.5200189273763404, "learning_rate": 1.220944973160133e-06, "loss": 0.0303, "step": 396 }, { "epoch": 0.8469333333333333, "grad_norm": 0.3773966895641283, "learning_rate": 1.1879488237326952e-06, "loss": 0.0275, "step": 397 }, { "epoch": 0.8490666666666666, "grad_norm": 0.41251238052334416, "learning_rate": 1.1553764915379095e-06, "loss": 0.0258, "step": 398 }, { "epoch": 0.8512, "grad_norm": 0.44234356074912834, "learning_rate": 1.1232295431481222e-06, "loss": 0.042, "step": 399 }, { "epoch": 0.8533333333333334, "grad_norm": 0.7976202514589322, "learning_rate": 1.0915095246767692e-06, "loss": 0.0391, "step": 400 }, { "epoch": 0.8554666666666667, "grad_norm": 0.4590402183287072, "learning_rate": 1.0602179617040098e-06, "loss": 0.0178, "step": 401 }, { "epoch": 0.8576, "grad_norm": 0.349604164391915, "learning_rate": 1.0293563592033595e-06, "loss": 0.0213, "step": 402 }, { "epoch": 0.8597333333333333, "grad_norm": 0.4171534401807337, "learning_rate": 9.989262014693013e-07, "loss": 0.0323, "step": 403 }, { "epoch": 0.8618666666666667, "grad_norm": 0.9525998577214346, "learning_rate": 9.68928952045909e-07, "loss": 0.0319, "step": 404 }, { "epoch": 0.864, "grad_norm": 0.43387713958853175, "learning_rate": 9.393660536564408e-07, "loss": 0.0293, "step": 405 }, { "epoch": 0.8661333333333333, "grad_norm": 0.6181788637585869, "learning_rate": 9.102389281339719e-07, "loss": 0.0347, "step": 406 }, { "epoch": 0.8682666666666666, "grad_norm": 0.4112245482675152, "learning_rate": 8.815489763529938e-07, "loss": 0.0412, "step": 407 }, { "epoch": 0.8704, "grad_norm": 1.0019704272603145, "learning_rate": 8.532975781620511e-07, "loss": 0.0345, "step": 408 }, { "epoch": 0.8725333333333334, "grad_norm": 0.3985340312946, "learning_rate": 8.254860923173691e-07, "loss": 0.0272, "step": 409 }, { "epoch": 0.8746666666666667, "grad_norm": 0.6815670712875654, "learning_rate": 7.981158564175074e-07, "loss": 0.0201, "step": 410 }, { "epoch": 0.8768, "grad_norm": 0.5010003162281399, "learning_rate": 7.711881868390292e-07, "loss": 0.0268, "step": 411 }, { "epoch": 0.8789333333333333, "grad_norm": 0.587930435219023, "learning_rate": 7.447043786731867e-07, "loss": 0.0328, "step": 412 }, { "epoch": 0.8810666666666667, "grad_norm": 0.7385703191912768, "learning_rate": 7.18665705663637e-07, "loss": 0.021, "step": 413 }, { "epoch": 0.8832, "grad_norm": 0.802872057617413, "learning_rate": 6.930734201451817e-07, "loss": 0.0313, "step": 414 }, { "epoch": 0.8853333333333333, "grad_norm": 0.3652437091029865, "learning_rate": 6.679287529835266e-07, "loss": 0.0344, "step": 415 }, { "epoch": 0.8874666666666666, "grad_norm": 0.5639889944551809, "learning_rate": 6.432329135160953e-07, "loss": 0.0287, "step": 416 }, { "epoch": 0.8896, "grad_norm": 0.3392340924912007, "learning_rate": 6.189870894938587e-07, "loss": 0.0303, "step": 417 }, { "epoch": 0.8917333333333334, "grad_norm": 0.5293387418247875, "learning_rate": 5.951924470242121e-07, "loss": 0.0327, "step": 418 }, { "epoch": 0.8938666666666667, "grad_norm": 0.5664320263461886, "learning_rate": 5.718501305148893e-07, "loss": 0.0243, "step": 419 }, { "epoch": 0.896, "grad_norm": 0.5847456818189899, "learning_rate": 5.489612626189245e-07, "loss": 0.0331, "step": 420 }, { "epoch": 0.8981333333333333, "grad_norm": 1.1828319003570638, "learning_rate": 5.265269441806564e-07, "loss": 0.0363, "step": 421 }, { "epoch": 0.9002666666666667, "grad_norm": 0.4354584930844899, "learning_rate": 5.045482541827828e-07, "loss": 0.0244, "step": 422 }, { "epoch": 0.9024, "grad_norm": 0.8949661565466129, "learning_rate": 4.830262496944693e-07, "loss": 0.029, "step": 423 }, { "epoch": 0.9045333333333333, "grad_norm": 0.4384020038288744, "learning_rate": 4.6196196582050543e-07, "loss": 0.0147, "step": 424 }, { "epoch": 0.9066666666666666, "grad_norm": 0.4674711677217029, "learning_rate": 4.4135641565152265e-07, "loss": 0.0264, "step": 425 }, { "epoch": 0.9088, "grad_norm": 1.496033281566512, "learning_rate": 4.21210590215273e-07, "loss": 0.0229, "step": 426 }, { "epoch": 0.9109333333333334, "grad_norm": 0.6444510658740636, "learning_rate": 4.015254584289585e-07, "loss": 0.0284, "step": 427 }, { "epoch": 0.9130666666666667, "grad_norm": 0.3821784310816325, "learning_rate": 3.8230196705263734e-07, "loss": 0.0314, "step": 428 }, { "epoch": 0.9152, "grad_norm": 0.4285412525833733, "learning_rate": 3.635410406436857e-07, "loss": 0.0285, "step": 429 }, { "epoch": 0.9173333333333333, "grad_norm": 0.47164766917478057, "learning_rate": 3.452435815123323e-07, "loss": 0.0242, "step": 430 }, { "epoch": 0.9194666666666667, "grad_norm": 0.49041783990243004, "learning_rate": 3.2741046967826205e-07, "loss": 0.0295, "step": 431 }, { "epoch": 0.9216, "grad_norm": 0.6397446017314912, "learning_rate": 3.100425628282899e-07, "loss": 0.0249, "step": 432 }, { "epoch": 0.9237333333333333, "grad_norm": 0.4970070709773908, "learning_rate": 2.9314069627511045e-07, "loss": 0.0177, "step": 433 }, { "epoch": 0.9258666666666666, "grad_norm": 0.4670315801826843, "learning_rate": 2.767056829171255e-07, "loss": 0.0288, "step": 434 }, { "epoch": 0.928, "grad_norm": 0.5046915562077479, "learning_rate": 2.607383131993424e-07, "loss": 0.0129, "step": 435 }, { "epoch": 0.9301333333333334, "grad_norm": 0.8275284725819219, "learning_rate": 2.452393550753662e-07, "loss": 0.0322, "step": 436 }, { "epoch": 0.9322666666666667, "grad_norm": 0.5330578134222311, "learning_rate": 2.302095539704563e-07, "loss": 0.0291, "step": 437 }, { "epoch": 0.9344, "grad_norm": 0.4043839746249479, "learning_rate": 2.1564963274568028e-07, "loss": 0.0187, "step": 438 }, { "epoch": 0.9365333333333333, "grad_norm": 2.1237883356620095, "learning_rate": 2.0156029166314316e-07, "loss": 0.0196, "step": 439 }, { "epoch": 0.9386666666666666, "grad_norm": 0.9091991546647338, "learning_rate": 1.8794220835231413e-07, "loss": 0.0369, "step": 440 }, { "epoch": 0.9408, "grad_norm": 1.2279587859330783, "learning_rate": 1.7479603777742937e-07, "loss": 0.043, "step": 441 }, { "epoch": 0.9429333333333333, "grad_norm": 0.4701919068863411, "learning_rate": 1.6212241220599835e-07, "loss": 0.0167, "step": 442 }, { "epoch": 0.9450666666666667, "grad_norm": 0.6567820766521014, "learning_rate": 1.49921941178387e-07, "loss": 0.0387, "step": 443 }, { "epoch": 0.9472, "grad_norm": 0.6387442727751721, "learning_rate": 1.3819521147851122e-07, "loss": 0.0167, "step": 444 }, { "epoch": 0.9493333333333334, "grad_norm": 0.6453478387521295, "learning_rate": 1.2694278710560282e-07, "loss": 0.0147, "step": 445 }, { "epoch": 0.9514666666666667, "grad_norm": 0.45942473171463294, "learning_rate": 1.1616520924709773e-07, "loss": 0.0405, "step": 446 }, { "epoch": 0.9536, "grad_norm": 0.6556176206084849, "learning_rate": 1.0586299625259699e-07, "loss": 0.0335, "step": 447 }, { "epoch": 0.9557333333333333, "grad_norm": 0.7060471932864678, "learning_rate": 9.603664360894327e-08, "loss": 0.0265, "step": 448 }, { "epoch": 0.9578666666666666, "grad_norm": 0.6260109644095994, "learning_rate": 8.668662391638439e-08, "loss": 0.0248, "step": 449 }, { "epoch": 0.96, "grad_norm": 0.36731082098951995, "learning_rate": 7.781338686584928e-08, "loss": 0.0185, "step": 450 }, { "epoch": 0.9621333333333333, "grad_norm": 0.8139729310196088, "learning_rate": 6.94173592173164e-08, "loss": 0.0341, "step": 451 }, { "epoch": 0.9642666666666667, "grad_norm": 1.6216939031071436, "learning_rate": 6.149894477928909e-08, "loss": 0.0316, "step": 452 }, { "epoch": 0.9664, "grad_norm": 0.5150067530894208, "learning_rate": 5.405852438937764e-08, "loss": 0.0259, "step": 453 }, { "epoch": 0.9685333333333334, "grad_norm": 0.8841513107446011, "learning_rate": 4.7096455895976334e-08, "loss": 0.0221, "step": 454 }, { "epoch": 0.9706666666666667, "grad_norm": 0.6370913091082288, "learning_rate": 4.0613074141059307e-08, "loss": 0.0463, "step": 455 }, { "epoch": 0.9728, "grad_norm": 0.7085376308611622, "learning_rate": 3.460869094407127e-08, "loss": 0.0463, "step": 456 }, { "epoch": 0.9749333333333333, "grad_norm": 3.220232340341537, "learning_rate": 2.9083595086933924e-08, "loss": 0.0328, "step": 457 }, { "epoch": 0.9770666666666666, "grad_norm": 0.5424367863848012, "learning_rate": 2.403805230015488e-08, "loss": 0.0316, "step": 458 }, { "epoch": 0.9792, "grad_norm": 0.36392784412465723, "learning_rate": 1.947230525005006e-08, "loss": 0.0279, "step": 459 }, { "epoch": 0.9813333333333333, "grad_norm": 0.6181427229243145, "learning_rate": 1.5386573527067516e-08, "loss": 0.0207, "step": 460 }, { "epoch": 0.9834666666666667, "grad_norm": 1.0432099564460677, "learning_rate": 1.178105363523252e-08, "loss": 0.0341, "step": 461 }, { "epoch": 0.9856, "grad_norm": 0.6805191457294142, "learning_rate": 8.655918982689582e-09, "loss": 0.0374, "step": 462 }, { "epoch": 0.9877333333333334, "grad_norm": 0.7140231951371093, "learning_rate": 6.011319873370225e-09, "loss": 0.0337, "step": 463 }, { "epoch": 0.9898666666666667, "grad_norm": 0.4539980505144493, "learning_rate": 3.847383499756552e-09, "loss": 0.0233, "step": 464 }, { "epoch": 0.992, "grad_norm": 0.639929310768322, "learning_rate": 2.164213936770576e-09, "loss": 0.0316, "step": 465 }, { "epoch": 0.9941333333333333, "grad_norm": 0.3734946598281521, "learning_rate": 9.618921367637869e-10, "loss": 0.0418, "step": 466 }, { "epoch": 0.9962666666666666, "grad_norm": 0.4711246157830267, "learning_rate": 2.404759256247058e-10, "loss": 0.0284, "step": 467 }, { "epoch": 0.9984, "grad_norm": 0.5677887625377763, "learning_rate": 0.0, "loss": 0.0306, "step": 468 }, { "epoch": 0.9984, "step": 468, "total_flos": 24715131617280.0, "train_loss": 0.19915007105351895, "train_runtime": 2797.252, "train_samples_per_second": 42.899, "train_steps_per_second": 0.167 } ], "logging_steps": 1.0, "max_steps": 468, "num_input_tokens_seen": 0, "num_train_epochs": 1, "save_steps": 200, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 24715131617280.0, "train_batch_size": 4, "trial_name": null, "trial_params": null }