detr-resnet-50-finetuned-IDD_Detection

This model is a fine-tuned version of microsoft/conditional-detr-resnet-50 on the IDD 40K Object Detection Dataset dataset. It achieves the following results on the evaluation set:

  • Loss: 1.2856
  • Map: 0.201
  • Map 50: 0.3458
  • Map 75: 0.1972
  • Map Small: 0.013
  • Map Medium: 0.1528
  • Map Large: 0.5114
  • Mar 1: 0.1556
  • Mar 10: 0.2586
  • Mar 100: 0.2731
  • Mar Small: 0.0489
  • Mar Medium: 0.2658
  • Mar Large: 0.6352
  • Map Traffic sign: 0.0501
  • Mar 100 Traffic sign: 0.1018
  • Map Motorcycle: 0.2357
  • Mar 100 Motorcycle: 0.3139
  • Map Car: 0.2965
  • Mar 100 Car: 0.3588
  • Map Rider: 0.1808
  • Mar 100 Rider: 0.2669
  • Map Person: 0.1263
  • Mar 100 Person: 0.223
  • Map Truck: 0.2546
  • Mar 100 Truck: 0.3507
  • Map Autorickshaw: 0.2901
  • Mar 100 Autorickshaw: 0.3448
  • Map Vehicle fallback: 0.0144
  • Mar 100 Vehicle fallback: 0.0715
  • Map Bus: 0.3606
  • Mar 100 Bus: 0.4265

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 6
  • eval_batch_size: 6
  • seed: 42
  • optimizer: Use adamw_torch with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: cosine
  • num_epochs: 30

Training results

Training Loss Epoch Step Validation Loss Map Map 50 Map 75 Map Small Map Medium Map Large Mar 1 Mar 10 Mar 100 Mar Small Mar Medium Mar Large Map Traffic sign Mar 100 Traffic sign Map Motorcycle Mar 100 Motorcycle Map Car Mar 100 Car Map Rider Mar 100 Rider Map Person Mar 100 Person Map Truck Mar 100 Truck Map Autorickshaw Mar 100 Autorickshaw Map Vehicle fallback Mar 100 Vehicle fallback Map Bus Mar 100 Bus
1.6239 1.0 5188 1.6662 0.0806 0.1632 0.0709 0.002 0.0412 0.2409 0.0929 0.1621 0.1731 0.0146 0.1274 0.4394 0.0033 0.0132 0.0916 0.1752 0.1867 0.261 0.0816 0.1709 0.0588 0.1502 0.0713 0.2307 0.0943 0.2282 0.0001 0.0156 0.1378 0.3124
1.5535 2.0 10376 1.6011 0.102 0.201 0.0931 0.004 0.0522 0.3001 0.1001 0.171 0.1822 0.0169 0.1394 0.4654 0.0103 0.0263 0.1349 0.2179 0.193 0.2555 0.0994 0.1928 0.071 0.154 0.0903 0.2369 0.1574 0.23 0.0002 0.0161 0.1614 0.3105
1.5161 3.0 15564 1.5392 0.1235 0.2282 0.1169 0.0034 0.0649 0.3553 0.1156 0.1952 0.2076 0.0215 0.1653 0.5329 0.0166 0.0457 0.1423 0.2214 0.2119 0.2802 0.1162 0.201 0.081 0.1689 0.1258 0.2867 0.1893 0.2707 0.0016 0.0397 0.2266 0.354
1.4855 4.0 20752 1.5055 0.1347 0.2441 0.1298 0.0052 0.0703 0.375 0.1175 0.1953 0.208 0.0227 0.1707 0.5186 0.0085 0.039 0.1573 0.2389 0.2286 0.2925 0.1231 0.2122 0.0793 0.1666 0.1536 0.2645 0.2059 0.2774 0.0014 0.0278 0.2548 0.3528
1.4575 5.0 25940 1.5208 0.1332 0.2414 0.1272 0.0045 0.0721 0.3748 0.1195 0.1989 0.2099 0.0198 0.1682 0.5456 0.013 0.0488 0.1543 0.2278 0.2264 0.2839 0.1251 0.213 0.0765 0.1615 0.1449 0.2847 0.2035 0.2711 0.0029 0.0409 0.2526 0.3577
1.4349 6.0 31128 1.4843 0.1372 0.2523 0.1292 0.0056 0.0784 0.3808 0.119 0.1958 0.2089 0.0231 0.1747 0.5256 0.0203 0.0497 0.1548 0.2402 0.2136 0.2928 0.1209 0.2065 0.0808 0.16 0.1654 0.2683 0.1987 0.2651 0.0039 0.04 0.2761 0.3573
1.4424 7.0 36316 1.4735 0.1415 0.2549 0.1354 0.0056 0.0792 0.39 0.1226 0.1999 0.2126 0.0255 0.1775 0.5322 0.018 0.0534 0.1599 0.2443 0.2346 0.2975 0.1209 0.2132 0.085 0.1717 0.1684 0.2711 0.1988 0.2651 0.0066 0.0438 0.2815 0.353
1.4086 8.0 41504 1.5109 0.1347 0.2526 0.1271 0.0032 0.0729 0.3877 0.1193 0.1968 0.2079 0.0167 0.1638 0.5556 0.0209 0.0601 0.1439 0.2253 0.2071 0.2694 0.1135 0.1972 0.0784 0.1676 0.1782 0.2772 0.2043 0.2602 0.007 0.0543 0.2592 0.36
1.3875 9.0 46692 1.4253 0.1601 0.2839 0.1555 0.006 0.0958 0.436 0.1321 0.2156 0.2276 0.0281 0.1998 0.5661 0.0265 0.0664 0.1844 0.2589 0.2468 0.3084 0.1384 0.2214 0.0957 0.1787 0.1985 0.3 0.2388 0.2907 0.0097 0.0447 0.3018 0.3792
1.3833 10.0 51880 1.4202 0.1607 0.2868 0.1551 0.007 0.0982 0.4347 0.1328 0.2189 0.2335 0.0324 0.2094 0.5702 0.0293 0.0674 0.1818 0.2647 0.2523 0.3166 0.1394 0.2342 0.0937 0.1874 0.2007 0.2968 0.2334 0.3041 0.0072 0.0521 0.3085 0.3785
1.3663 11.0 57068 1.4030 0.1652 0.2903 0.161 0.0079 0.1024 0.4406 0.134 0.2211 0.2341 0.031 0.2102 0.5678 0.0247 0.0641 0.1954 0.2732 0.2561 0.3194 0.1465 0.2332 0.0998 0.1868 0.2096 0.3072 0.2421 0.3027 0.0097 0.0517 0.3025 0.3686
1.3411 12.0 62256 1.4126 0.1655 0.2944 0.1597 0.0076 0.1043 0.448 0.1358 0.2219 0.2362 0.0306 0.2121 0.5815 0.0285 0.0671 0.1876 0.2795 0.2553 0.3173 0.1432 0.2367 0.0993 0.1934 0.2121 0.3046 0.2445 0.3068 0.0081 0.051 0.311 0.3697
1.3427 13.0 67444 1.3830 0.172 0.2999 0.1685 0.0086 0.1144 0.4606 0.1396 0.2302 0.2428 0.0326 0.2235 0.5903 0.0313 0.0752 0.2009 0.2815 0.2602 0.3193 0.1539 0.2342 0.1042 0.1961 0.2177 0.3235 0.2567 0.3167 0.0093 0.055 0.3143 0.3833
1.3149 14.0 72632 1.3696 0.1716 0.3031 0.1673 0.0083 0.1171 0.4578 0.1402 0.2316 0.2453 0.0356 0.2248 0.594 0.0301 0.0768 0.1926 0.2809 0.2629 0.3285 0.1509 0.2373 0.1086 0.206 0.2206 0.3184 0.2564 0.3159 0.0107 0.057 0.3112 0.3866
1.3022 15.0 77820 1.3576 0.1755 0.3073 0.1729 0.0088 0.1205 0.4661 0.1421 0.2334 0.2462 0.0355 0.2277 0.5949 0.0354 0.0883 0.2036 0.2813 0.2656 0.3262 0.1557 0.2355 0.1045 0.2 0.2241 0.3201 0.2613 0.3207 0.0109 0.0513 0.318 0.3923
1.2817 16.0 83008 1.3502 0.1808 0.3163 0.1777 0.0099 0.1281 0.4731 0.1465 0.2401 0.2541 0.0381 0.241 0.6074 0.0418 0.0901 0.2089 0.2892 0.2728 0.3374 0.1611 0.2495 0.1125 0.2037 0.2287 0.3307 0.2607 0.3217 0.0081 0.061 0.3327 0.4034
1.2807 17.0 88196 1.3419 0.181 0.3179 0.1765 0.0097 0.1268 0.4758 0.1441 0.24 0.2539 0.041 0.2382 0.6049 0.039 0.0904 0.2087 0.2893 0.2716 0.3344 0.1616 0.2492 0.1138 0.2065 0.2306 0.3252 0.2648 0.3292 0.0111 0.0639 0.3273 0.3969
1.2689 18.0 93384 1.3448 0.1832 0.3208 0.178 0.0091 0.1305 0.4763 0.1453 0.2393 0.254 0.0387 0.2399 0.6028 0.041 0.0929 0.2131 0.2928 0.2772 0.3403 0.1588 0.247 0.1121 0.2118 0.2357 0.323 0.2682 0.3264 0.0099 0.0586 0.333 0.3932
1.2664 19.0 98572 1.3336 0.1889 0.3291 0.1843 0.0104 0.1355 0.489 0.1493 0.2445 0.2586 0.0425 0.2457 0.6106 0.0451 0.0943 0.2183 0.2947 0.2796 0.3414 0.1676 0.2547 0.1186 0.2129 0.2419 0.3372 0.268 0.3257 0.0125 0.0603 0.3484 0.4064
1.2393 20.0 103760 1.3165 0.1911 0.3302 0.1876 0.0113 0.1395 0.4936 0.1494 0.2486 0.2628 0.0441 0.2526 0.618 0.0408 0.0892 0.2228 0.2994 0.285 0.3425 0.1728 0.2593 0.12 0.2243 0.2408 0.3379 0.277 0.332 0.0133 0.0648 0.3471 0.4155
1.2353 21.0 108948 1.3125 0.1935 0.3354 0.1899 0.0116 0.1433 0.4976 0.1511 0.2498 0.2633 0.0451 0.2556 0.6148 0.0472 0.0931 0.2266 0.3023 0.2885 0.3484 0.1742 0.2608 0.1188 0.2107 0.2402 0.3358 0.28 0.337 0.015 0.064 0.3508 0.418
1.2166 22.0 114136 1.3075 0.1939 0.3342 0.1916 0.0115 0.1461 0.4994 0.1528 0.2522 0.2664 0.0426 0.257 0.6304 0.0464 0.0942 0.2276 0.3042 0.2872 0.3466 0.1773 0.2652 0.1201 0.2245 0.2419 0.341 0.2797 0.3361 0.0127 0.068 0.3524 0.4175
1.201 23.0 119324 1.3020 0.1961 0.339 0.1923 0.0119 0.1459 0.504 0.1528 0.2533 0.2672 0.0459 0.2566 0.6286 0.0465 0.0977 0.2267 0.3047 0.2899 0.354 0.1757 0.2599 0.1225 0.2139 0.2504 0.3459 0.2845 0.338 0.0133 0.0678 0.3553 0.4233
1.2114 24.0 124512 1.2976 0.1969 0.3399 0.1922 0.0122 0.1475 0.506 0.1537 0.2551 0.2694 0.0457 0.2624 0.6312 0.0453 0.096 0.231 0.3096 0.2919 0.3576 0.1766 0.2611 0.1222 0.2141 0.2499 0.3493 0.2836 0.3401 0.0136 0.0711 0.358 0.4257
1.1831 25.0 129700 1.2908 0.1991 0.3438 0.195 0.0128 0.152 0.5074 0.1548 0.2572 0.2715 0.0472 0.2642 0.6355 0.0502 0.1015 0.2333 0.3133 0.293 0.3532 0.1785 0.2666 0.1237 0.2208 0.254 0.3495 0.2859 0.342 0.0155 0.0727 0.3573 0.4237
1.1947 26.0 134888 1.2892 0.1993 0.3439 0.1955 0.0126 0.1509 0.5093 0.1544 0.2567 0.2713 0.0479 0.2632 0.6346 0.0485 0.0967 0.2327 0.3123 0.2941 0.3562 0.1794 0.2656 0.1249 0.2239 0.253 0.3485 0.2886 0.3446 0.0139 0.0722 0.3586 0.4214
1.1881 27.0 140076 1.2871 0.1997 0.3444 0.1963 0.0126 0.1519 0.5092 0.155 0.258 0.2726 0.0487 0.2655 0.6345 0.0479 0.0995 0.2328 0.3107 0.2948 0.3584 0.1806 0.2669 0.1264 0.2229 0.2531 0.3516 0.2884 0.3457 0.0139 0.0708 0.3592 0.4273
1.176 28.0 145264 1.2862 0.2002 0.3449 0.1963 0.0128 0.1523 0.5112 0.1551 0.2579 0.2723 0.0486 0.2646 0.6341 0.0492 0.1007 0.2335 0.3116 0.2947 0.3583 0.18 0.2655 0.1259 0.2215 0.2544 0.3513 0.2895 0.3447 0.0143 0.0708 0.3604 0.4261
1.1863 29.0 150452 1.2856 0.2008 0.3456 0.1971 0.0131 0.1528 0.511 0.1554 0.2586 0.2732 0.0488 0.2661 0.6356 0.0497 0.1018 0.2358 0.3144 0.2961 0.3588 0.1806 0.2668 0.1261 0.2229 0.2545 0.351 0.2895 0.3447 0.0143 0.072 0.3603 0.4265
1.1826 30.0 155640 1.2856 0.201 0.3458 0.1972 0.013 0.1528 0.5114 0.1556 0.2586 0.2731 0.0489 0.2658 0.6352 0.0501 0.1018 0.2357 0.3139 0.2965 0.3588 0.1808 0.2669 0.1263 0.223 0.2546 0.3507 0.2901 0.3448 0.0144 0.0715 0.3606 0.4265

Framework versions

  • Transformers 4.51.3
  • Pytorch 2.3.1+cu121
  • Datasets 2.19.1
  • Tokenizers 0.21.1
Downloads last month
1,186
Safetensors
Model size
43.5M params
Tensor type
F32
ยท
Inference Providers NEW
This model isn't deployed by any Inference Provider. ๐Ÿ™‹ Ask for provider support

Model tree for izzako/detr-resnet-50-finetuned-IDD_Detection

Finetuned
(76)
this model