train_multirc_1745950260

This model is a fine-tuned version of google/gemma-3-1b-it on the multirc dataset. It achieves the following results on the evaluation set:

  • Loss: 0.1884
  • Num Input Tokens Seen: 76963024

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 0.3
  • train_batch_size: 2
  • eval_batch_size: 2
  • seed: 123
  • gradient_accumulation_steps: 2
  • total_train_batch_size: 4
  • optimizer: Use adamw_torch with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: cosine
  • training_steps: 40000

Training results

Training Loss Epoch Step Validation Loss Input Tokens Seen
0.3259 0.0326 200 0.3690 385088
0.2254 0.0653 400 0.2665 770352
0.2463 0.0979 600 0.2561 1160480
0.253 0.1305 800 0.2581 1543296
0.2537 0.1631 1000 0.2375 1931808
0.3811 0.1958 1200 0.2577 2315744
0.2942 0.2284 1400 0.2469 2710208
0.2568 0.2610 1600 0.2531 3095216
0.2702 0.2937 1800 0.2577 3483504
0.2579 0.3263 2000 0.2552 3872976
0.2397 0.3589 2200 0.2343 4254272
0.2241 0.3915 2400 0.2311 4637376
0.224 0.4242 2600 0.2280 5019664
0.2394 0.4568 2800 0.2307 5406912
0.2368 0.4894 3000 0.2660 5786080
0.2282 0.5221 3200 0.2373 6167600
0.2228 0.5547 3400 0.2382 6553904
0.2122 0.5873 3600 0.2321 6936656
0.2201 0.6200 3800 0.2306 7321136
0.2457 0.6526 4000 0.2302 7709856
0.2281 0.6852 4200 0.2275 8100560
0.2378 0.7178 4400 0.2316 8482208
0.2399 0.7505 4600 0.2321 8868016
0.2409 0.7831 4800 0.2320 9254560
0.2794 0.8157 5000 0.2502 9634544
0.2242 0.8484 5200 0.2498 10013984
0.2163 0.8810 5400 0.2634 10397792
0.2432 0.9136 5600 0.2414 10784512
0.2406 0.9462 5800 0.2271 11165168
0.2439 0.9789 6000 0.2323 11553056
0.2439 1.0114 6200 0.2283 11940352
0.2551 1.0440 6400 0.2285 12331920
0.2529 1.0767 6600 0.2256 12726352
0.2318 1.1093 6800 0.2243 13105200
0.2397 1.1419 7000 0.2330 13483648
0.2211 1.1746 7200 0.2515 13862816
0.187 1.2072 7400 0.2299 14252288
0.2061 1.2398 7600 0.2262 14638816
0.2402 1.2725 7800 0.2248 15024560
0.262 1.3051 8000 0.2405 15412000
0.2524 1.3377 8200 0.2334 15789456
0.2249 1.3703 8400 0.2285 16173616
0.2501 1.4030 8600 0.2542 16558464
0.2079 1.4356 8800 0.2335 16945488
0.1982 1.4682 9000 0.2330 17338800
0.2529 1.5009 9200 0.2368 17729104
0.2348 1.5335 9400 0.2409 18107328
0.2399 1.5661 9600 0.2312 18497776
0.2159 1.5987 9800 0.2269 18881008
0.2333 1.6314 10000 0.2311 19266960
0.2268 1.6640 10200 0.2308 19650480
0.2241 1.6966 10400 0.2293 20041120
0.2057 1.7293 10600 0.2248 20421120
0.2239 1.7619 10800 0.2253 20808496
0.2168 1.7945 11000 0.2357 21195024
0.2592 1.8271 11200 0.2253 21570368
0.2493 1.8598 11400 0.2326 21950896
0.2433 1.8924 11600 0.2256 22333376
0.2541 1.9250 11800 0.2351 22714512
0.2216 1.9577 12000 0.2255 23099888
0.2311 1.9903 12200 0.2382 23482400
0.2379 2.0228 12400 0.2258 23860160
0.239 2.0555 12600 0.2253 24249008
0.2476 2.0881 12800 0.2286 24639552
0.2214 2.1207 13000 0.2261 25026880
0.2436 2.1534 13200 0.2249 25410448
0.2123 2.1860 13400 0.2230 25785744
0.2422 2.2186 13600 0.2326 26163104
0.2263 2.2512 13800 0.2203 26546240
0.2249 2.2839 14000 0.2251 26923408
0.2394 2.3165 14200 0.2273 27309344
0.2427 2.3491 14400 0.2261 27698752
0.2083 2.3818 14600 0.2769 28082208
0.245 2.4144 14800 0.2167 28468576
0.2304 2.4470 15000 0.2214 28856272
0.2417 2.4796 15200 0.2150 29234704
0.2322 2.5123 15400 0.2149 29617728
0.2143 2.5449 15600 0.2237 30004032
0.2134 2.5775 15800 0.2149 30386752
0.2007 2.6102 16000 0.2146 30774224
0.2347 2.6428 16200 0.2233 31164304
0.1845 2.6754 16400 0.2153 31548832
0.2257 2.7081 16600 0.2183 31943568
0.2572 2.7407 16800 0.2165 32327088
0.2384 2.7733 17000 0.2126 32713728
0.2622 2.8059 17200 0.2147 33093744
0.2166 2.8386 17400 0.2139 33484336
0.2299 2.8712 17600 0.2170 33875072
0.2312 2.9038 17800 0.2159 34264832
0.2082 2.9365 18000 0.2142 34652800
0.2204 2.9691 18200 0.2123 35036144
0.1839 3.0016 18400 0.2114 35410304
0.2317 3.0343 18600 0.2109 35808688
0.2439 3.0669 18800 0.2233 36200720
0.2262 3.0995 19000 0.2277 36580112
0.2039 3.1321 19200 0.2112 36961872
0.2283 3.1648 19400 0.2210 37345136
0.1909 3.1974 19600 0.2100 37732992
0.2207 3.2300 19800 0.2159 38118784
0.1914 3.2627 20000 0.2146 38503392
0.2317 3.2953 20200 0.2162 38885696
0.212 3.3279 20400 0.2132 39270320
0.2109 3.3606 20600 0.2096 39665472
0.2342 3.3932 20800 0.2192 40049680
0.2229 3.4258 21000 0.2065 40436560
0.2153 3.4584 21200 0.2073 40820704
0.2711 3.4911 21400 0.2080 41202080
0.2189 3.5237 21600 0.2170 41588560
0.1831 3.5563 21800 0.2062 41977888
0.2423 3.5890 22000 0.2046 42361392
0.1997 3.6216 22200 0.2065 42746416
0.1787 3.6542 22400 0.2105 43126400
0.245 3.6868 22600 0.2058 43513248
0.1915 3.7195 22800 0.2006 43896720
0.1758 3.7521 23000 0.2038 44278640
0.1641 3.7847 23200 0.2050 44666464
0.2257 3.8174 23400 0.2043 45047360
0.2563 3.8500 23600 0.1993 45426496
0.2483 3.8826 23800 0.1995 45813536
0.2581 3.9152 24000 0.2038 46192656
0.1759 3.9479 24200 0.2015 46576928
0.1628 3.9805 24400 0.2006 46965120
0.2243 4.0131 24600 0.2017 47347920
0.1911 4.0457 24800 0.1991 47741360
0.1695 4.0783 25000 0.2029 48131120
0.1807 4.1109 25200 0.1989 48513200
0.1917 4.1436 25400 0.2002 48894496
0.2566 4.1762 25600 0.1973 49280736
0.2054 4.2088 25800 0.1967 49662304
0.1702 4.2415 26000 0.1973 50049312
0.2251 4.2741 26200 0.2016 50433008
0.2118 4.3067 26400 0.1986 50815824
0.1826 4.3393 26600 0.2019 51200224
0.2334 4.3720 26800 0.1968 51585680
0.2112 4.4046 27000 0.1962 51969184
0.1786 4.4372 27200 0.1989 52363216
0.2068 4.4699 27400 0.1966 52737552
0.1941 4.5025 27600 0.1956 53112128
0.1346 4.5351 27800 0.1958 53489200
0.1824 4.5677 28000 0.1954 53870832
0.1838 4.6004 28200 0.1951 54260848
0.2061 4.6330 28400 0.1961 54647840
0.2111 4.6656 28600 0.1964 55035376
0.2662 4.6983 28800 0.1938 55421296
0.2119 4.7309 29000 0.1944 55807776
0.1516 4.7635 29200 0.1930 56188960
0.2201 4.7961 29400 0.1931 56576864
0.1645 4.8288 29600 0.1937 56959888
0.1807 4.8614 29800 0.1949 57347776
0.2215 4.8940 30000 0.1954 57727072
0.2328 4.9267 30200 0.1985 58119904
0.1302 4.9593 30400 0.1931 58503776
0.182 4.9919 30600 0.1909 58892528
0.1802 5.0245 30800 0.1928 59278112
0.1849 5.0571 31000 0.1932 59663264
0.196 5.0897 31200 0.1952 60047056
0.194 5.1224 31400 0.1893 60433680
0.1638 5.1550 31600 0.1915 60809376
0.1582 5.1876 31800 0.1886 61186608
0.1677 5.2202 32000 0.1910 61567504
0.1638 5.2529 32200 0.1908 61958976
0.1804 5.2855 32400 0.1894 62346176
0.2607 5.3181 32600 0.1909 62734064
0.2548 5.3508 32800 0.1890 63124752
0.1706 5.3834 33000 0.1892 63517792
0.2016 5.4160 33200 0.1884 63894896
0.1539 5.4486 33400 0.1896 64277584
0.263 5.4813 33600 0.1910 64661856
0.174 5.5139 33800 0.1898 65043136
0.1649 5.5465 34000 0.1887 65439360
0.1103 5.5792 34200 0.1894 65819600
0.1197 5.6118 34400 0.1897 66199376
0.1848 5.6444 34600 0.1899 66583936
0.2089 5.6771 34800 0.1904 66968960
0.2098 5.7097 35000 0.1891 67361344
0.22 5.7423 35200 0.1901 67746288
0.1752 5.7749 35400 0.1920 68131952
0.1639 5.8076 35600 0.1913 68514656
0.1417 5.8402 35800 0.1921 68904544
0.1775 5.8728 36000 0.1895 69286320
0.1688 5.9055 36200 0.1889 69676640
0.1898 5.9381 36400 0.1903 70057024
0.1686 5.9707 36600 0.1891 70432848
0.1376 6.0033 36800 0.1896 70819440
0.2545 6.0359 37000 0.1899 71203008
0.2171 6.0685 37200 0.1896 71588672
0.1954 6.1012 37400 0.1897 71972608
0.1308 6.1338 37600 0.1908 72358032
0.1851 6.1664 37800 0.1902 72749840
0.1399 6.1990 38000 0.1902 73128448
0.2122 6.2317 38200 0.1902 73518048
0.2377 6.2643 38400 0.1907 73911328
0.213 6.2969 38600 0.1904 74293168
0.1727 6.3296 38800 0.1900 74668864
0.1088 6.3622 39000 0.1901 75058640
0.2513 6.3948 39200 0.1902 75440784
0.1817 6.4274 39400 0.1904 75822528
0.1354 6.4601 39600 0.1901 76198368
0.1974 6.4927 39800 0.1904 76581104
0.1542 6.5253 40000 0.1899 76963024

Framework versions

  • PEFT 0.15.2.dev0
  • Transformers 4.51.3
  • Pytorch 2.6.0+cu124
  • Datasets 3.5.0
  • Tokenizers 0.21.1
Downloads last month
2
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for rbelanec/train_multirc_1745950260

Adapter
(138)
this model