HorcruxNo13 commited on
Commit
693ebf3
1 Parent(s): 5f543c3

update model card README.md

Browse files
Files changed (1) hide show
  1. README.md +53 -51
README.md CHANGED
@@ -1,6 +1,8 @@
1
  ---
2
  license: other
3
  tags:
 
 
4
  - generated_from_trainer
5
  model-index:
6
  - name: segformer-b0-finetuned-segments-toolwear
@@ -12,18 +14,18 @@ should probably proofread and complete it, then remove this comment. -->
12
 
13
  # segformer-b0-finetuned-segments-toolwear
14
 
15
- This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
16
  It achieves the following results on the evaluation set:
17
- - Loss: 0.0360
18
- - Mean Iou: 0.3724
19
- - Mean Accuracy: 0.7448
20
- - Overall Accuracy: 0.7448
21
  - Accuracy Unlabeled: nan
22
  - Accuracy Tool: nan
23
- - Accuracy Wear: 0.7448
24
  - Iou Unlabeled: 0.0
25
  - Iou Tool: nan
26
- - Iou Wear: 0.7448
27
 
28
  ## Model description
29
 
@@ -54,53 +56,53 @@ The following hyperparameters were used during training:
54
 
55
  | Training Loss | Epoch | Step | Validation Loss | Mean Iou | Mean Accuracy | Overall Accuracy | Accuracy Unlabeled | Accuracy Tool | Accuracy Wear | Iou Unlabeled | Iou Tool | Iou Wear |
56
  |:-------------:|:-----:|:----:|:---------------:|:--------:|:-------------:|:----------------:|:------------------:|:-------------:|:-------------:|:-------------:|:--------:|:--------:|
57
- | 0.9316 | 1.18 | 20 | 0.9877 | 0.4510 | 0.9020 | 0.9020 | nan | nan | 0.9020 | 0.0 | nan | 0.9020 |
58
- | 0.6902 | 2.35 | 40 | 0.6556 | 0.3765 | 0.7531 | 0.7531 | nan | nan | 0.7531 | 0.0 | nan | 0.7531 |
59
- | 0.532 | 3.53 | 60 | 0.4585 | 0.3435 | 0.6871 | 0.6871 | nan | nan | 0.6871 | 0.0 | nan | 0.6871 |
60
- | 0.4296 | 4.71 | 80 | 0.3832 | 0.3900 | 0.7799 | 0.7799 | nan | nan | 0.7799 | 0.0 | nan | 0.7799 |
61
- | 0.3318 | 5.88 | 100 | 0.3255 | 0.3739 | 0.7478 | 0.7478 | nan | nan | 0.7478 | 0.0 | nan | 0.7478 |
62
- | 0.281 | 7.06 | 120 | 0.2480 | 0.3109 | 0.6219 | 0.6219 | nan | nan | 0.6219 | 0.0 | nan | 0.6219 |
63
- | 0.2405 | 8.24 | 140 | 0.2410 | 0.2029 | 0.4059 | 0.4059 | nan | nan | 0.4059 | 0.0 | nan | 0.4059 |
64
- | 0.1945 | 9.41 | 160 | 0.1969 | 0.3366 | 0.6733 | 0.6733 | nan | nan | 0.6733 | 0.0 | nan | 0.6733 |
65
- | 0.1612 | 10.59 | 180 | 0.1776 | 0.3469 | 0.6938 | 0.6938 | nan | nan | 0.6938 | 0.0 | nan | 0.6938 |
66
- | 0.1653 | 11.76 | 200 | 0.1455 | 0.3758 | 0.7515 | 0.7515 | nan | nan | 0.7515 | 0.0 | nan | 0.7515 |
67
- | 0.1562 | 12.94 | 220 | 0.1330 | 0.2652 | 0.5304 | 0.5304 | nan | nan | 0.5304 | 0.0 | nan | 0.5304 |
68
- | 0.1053 | 14.12 | 240 | 0.1145 | 0.3511 | 0.7022 | 0.7022 | nan | nan | 0.7022 | 0.0 | nan | 0.7022 |
69
- | 0.1017 | 15.29 | 260 | 0.0989 | 0.3879 | 0.7757 | 0.7757 | nan | nan | 0.7757 | 0.0 | nan | 0.7757 |
70
- | 0.0809 | 16.47 | 280 | 0.0859 | 0.2622 | 0.5243 | 0.5243 | nan | nan | 0.5243 | 0.0 | nan | 0.5243 |
71
- | 0.0861 | 17.65 | 300 | 0.0761 | 0.3688 | 0.7375 | 0.7375 | nan | nan | 0.7375 | 0.0 | nan | 0.7375 |
72
- | 0.0695 | 18.82 | 320 | 0.0720 | 0.3786 | 0.7572 | 0.7572 | nan | nan | 0.7572 | 0.0 | nan | 0.7572 |
73
- | 0.0689 | 20.0 | 340 | 0.0646 | 0.3964 | 0.7927 | 0.7927 | nan | nan | 0.7927 | 0.0 | nan | 0.7927 |
74
- | 0.0592 | 21.18 | 360 | 0.0657 | 0.3063 | 0.6126 | 0.6126 | nan | nan | 0.6126 | 0.0 | nan | 0.6126 |
75
- | 0.0635 | 22.35 | 380 | 0.0581 | 0.3615 | 0.7230 | 0.7230 | nan | nan | 0.7230 | 0.0 | nan | 0.7230 |
76
- | 0.0511 | 23.53 | 400 | 0.0526 | 0.3622 | 0.7245 | 0.7245 | nan | nan | 0.7245 | 0.0 | nan | 0.7245 |
77
- | 0.0518 | 24.71 | 420 | 0.0543 | 0.3270 | 0.6540 | 0.6540 | nan | nan | 0.6540 | 0.0 | nan | 0.6540 |
78
- | 0.0448 | 25.88 | 440 | 0.0522 | 0.4141 | 0.8282 | 0.8282 | nan | nan | 0.8282 | 0.0 | nan | 0.8282 |
79
- | 0.0395 | 27.06 | 460 | 0.0470 | 0.3519 | 0.7038 | 0.7038 | nan | nan | 0.7038 | 0.0 | nan | 0.7038 |
80
- | 0.04 | 28.24 | 480 | 0.0452 | 0.3870 | 0.7740 | 0.7740 | nan | nan | 0.7740 | 0.0 | nan | 0.7740 |
81
- | 0.0386 | 29.41 | 500 | 0.0439 | 0.3801 | 0.7603 | 0.7603 | nan | nan | 0.7603 | 0.0 | nan | 0.7603 |
82
- | 0.0421 | 30.59 | 520 | 0.0437 | 0.4047 | 0.8093 | 0.8093 | nan | nan | 0.8093 | 0.0 | nan | 0.8093 |
83
- | 0.0356 | 31.76 | 540 | 0.0427 | 0.3675 | 0.7349 | 0.7349 | nan | nan | 0.7349 | 0.0 | nan | 0.7349 |
84
- | 0.0368 | 32.94 | 560 | 0.0420 | 0.3604 | 0.7208 | 0.7208 | nan | nan | 0.7208 | 0.0 | nan | 0.7208 |
85
- | 0.0368 | 34.12 | 580 | 0.0408 | 0.3589 | 0.7179 | 0.7179 | nan | nan | 0.7179 | 0.0 | nan | 0.7179 |
86
- | 0.032 | 35.29 | 600 | 0.0395 | 0.3664 | 0.7329 | 0.7329 | nan | nan | 0.7329 | 0.0 | nan | 0.7329 |
87
- | 0.03 | 36.47 | 620 | 0.0394 | 0.3691 | 0.7382 | 0.7382 | nan | nan | 0.7382 | 0.0 | nan | 0.7382 |
88
- | 0.028 | 37.65 | 640 | 0.0383 | 0.3731 | 0.7462 | 0.7462 | nan | nan | 0.7462 | 0.0 | nan | 0.7462 |
89
- | 0.0304 | 38.82 | 660 | 0.0376 | 0.3796 | 0.7592 | 0.7592 | nan | nan | 0.7592 | 0.0 | nan | 0.7592 |
90
- | 0.0314 | 40.0 | 680 | 0.0382 | 0.3602 | 0.7204 | 0.7204 | nan | nan | 0.7204 | 0.0 | nan | 0.7204 |
91
- | 0.0266 | 41.18 | 700 | 0.0385 | 0.3602 | 0.7203 | 0.7203 | nan | nan | 0.7203 | 0.0 | nan | 0.7203 |
92
- | 0.0305 | 42.35 | 720 | 0.0375 | 0.3413 | 0.6827 | 0.6827 | nan | nan | 0.6827 | 0.0 | nan | 0.6827 |
93
- | 0.0334 | 43.53 | 740 | 0.0366 | 0.3632 | 0.7263 | 0.7263 | nan | nan | 0.7263 | 0.0 | nan | 0.7263 |
94
- | 0.0269 | 44.71 | 760 | 0.0359 | 0.3698 | 0.7396 | 0.7396 | nan | nan | 0.7396 | 0.0 | nan | 0.7396 |
95
- | 0.0352 | 45.88 | 780 | 0.0364 | 0.3679 | 0.7359 | 0.7359 | nan | nan | 0.7359 | 0.0 | nan | 0.7359 |
96
- | 0.0398 | 47.06 | 800 | 0.0366 | 0.3504 | 0.7008 | 0.7008 | nan | nan | 0.7008 | 0.0 | nan | 0.7008 |
97
- | 0.0261 | 48.24 | 820 | 0.0361 | 0.3789 | 0.7578 | 0.7578 | nan | nan | 0.7578 | 0.0 | nan | 0.7578 |
98
- | 0.0252 | 49.41 | 840 | 0.0360 | 0.3724 | 0.7448 | 0.7448 | nan | nan | 0.7448 | 0.0 | nan | 0.7448 |
99
 
100
 
101
  ### Framework versions
102
 
103
  - Transformers 4.28.0
104
- - Pytorch 2.1.0+cu118
105
- - Datasets 2.15.0
106
  - Tokenizers 0.13.3
 
1
  ---
2
  license: other
3
  tags:
4
+ - vision
5
+ - image-segmentation
6
  - generated_from_trainer
7
  model-index:
8
  - name: segformer-b0-finetuned-segments-toolwear
 
14
 
15
  # segformer-b0-finetuned-segments-toolwear
16
 
17
+ This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on the HorcruxNo13/toolwear_complete_wear dataset.
18
  It achieves the following results on the evaluation set:
19
+ - Loss: 0.0354
20
+ - Mean Iou: 0.3022
21
+ - Mean Accuracy: 0.6045
22
+ - Overall Accuracy: 0.6045
23
  - Accuracy Unlabeled: nan
24
  - Accuracy Tool: nan
25
+ - Accuracy Wear: 0.6045
26
  - Iou Unlabeled: 0.0
27
  - Iou Tool: nan
28
+ - Iou Wear: 0.6045
29
 
30
  ## Model description
31
 
 
56
 
57
  | Training Loss | Epoch | Step | Validation Loss | Mean Iou | Mean Accuracy | Overall Accuracy | Accuracy Unlabeled | Accuracy Tool | Accuracy Wear | Iou Unlabeled | Iou Tool | Iou Wear |
58
  |:-------------:|:-----:|:----:|:---------------:|:--------:|:-------------:|:----------------:|:------------------:|:-------------:|:-------------:|:-------------:|:--------:|:--------:|
59
+ | 0.8671 | 1.18 | 20 | 0.9263 | 0.4061 | 0.8122 | 0.8122 | nan | nan | 0.8122 | 0.0 | nan | 0.8122 |
60
+ | 0.5691 | 2.35 | 40 | 0.5998 | 0.2895 | 0.5790 | 0.5790 | nan | nan | 0.5790 | 0.0 | nan | 0.5790 |
61
+ | 0.4378 | 3.53 | 60 | 0.3948 | 0.3106 | 0.6213 | 0.6213 | nan | nan | 0.6213 | 0.0 | nan | 0.6213 |
62
+ | 0.3842 | 4.71 | 80 | 0.3190 | 0.2679 | 0.5357 | 0.5357 | nan | nan | 0.5357 | 0.0 | nan | 0.5357 |
63
+ | 0.3234 | 5.88 | 100 | 0.2883 | 0.3574 | 0.7148 | 0.7148 | nan | nan | 0.7148 | 0.0 | nan | 0.7148 |
64
+ | 0.2731 | 7.06 | 120 | 0.2392 | 0.3456 | 0.6911 | 0.6911 | nan | nan | 0.6911 | 0.0 | nan | 0.6911 |
65
+ | 0.2137 | 8.24 | 140 | 0.1850 | 0.1844 | 0.3688 | 0.3688 | nan | nan | 0.3688 | 0.0 | nan | 0.3688 |
66
+ | 0.1798 | 9.41 | 160 | 0.1692 | 0.2757 | 0.5515 | 0.5515 | nan | nan | 0.5515 | 0.0 | nan | 0.5515 |
67
+ | 0.1607 | 10.59 | 180 | 0.1338 | 0.2978 | 0.5956 | 0.5956 | nan | nan | 0.5956 | 0.0 | nan | 0.5956 |
68
+ | 0.1399 | 11.76 | 200 | 0.1218 | 0.2906 | 0.5811 | 0.5811 | nan | nan | 0.5811 | 0.0 | nan | 0.5811 |
69
+ | 0.1173 | 12.94 | 220 | 0.1030 | 0.2612 | 0.5224 | 0.5224 | nan | nan | 0.5224 | 0.0 | nan | 0.5224 |
70
+ | 0.0922 | 14.12 | 240 | 0.0976 | 0.2817 | 0.5633 | 0.5633 | nan | nan | 0.5633 | 0.0 | nan | 0.5633 |
71
+ | 0.081 | 15.29 | 260 | 0.0795 | 0.3154 | 0.6308 | 0.6308 | nan | nan | 0.6308 | 0.0 | nan | 0.6308 |
72
+ | 0.0852 | 16.47 | 280 | 0.0716 | 0.2188 | 0.4377 | 0.4377 | nan | nan | 0.4377 | 0.0 | nan | 0.4377 |
73
+ | 0.0709 | 17.65 | 300 | 0.0680 | 0.2691 | 0.5382 | 0.5382 | nan | nan | 0.5382 | 0.0 | nan | 0.5382 |
74
+ | 0.073 | 18.82 | 320 | 0.0611 | 0.2830 | 0.5660 | 0.5660 | nan | nan | 0.5660 | 0.0 | nan | 0.5660 |
75
+ | 0.0602 | 20.0 | 340 | 0.0592 | 0.2829 | 0.5657 | 0.5657 | nan | nan | 0.5657 | 0.0 | nan | 0.5657 |
76
+ | 0.0547 | 21.18 | 360 | 0.0577 | 0.2842 | 0.5684 | 0.5684 | nan | nan | 0.5684 | 0.0 | nan | 0.5684 |
77
+ | 0.0554 | 22.35 | 380 | 0.0537 | 0.2613 | 0.5226 | 0.5226 | nan | nan | 0.5226 | 0.0 | nan | 0.5226 |
78
+ | 0.0515 | 23.53 | 400 | 0.0523 | 0.3076 | 0.6152 | 0.6152 | nan | nan | 0.6152 | 0.0 | nan | 0.6152 |
79
+ | 0.0444 | 24.71 | 420 | 0.0487 | 0.3063 | 0.6126 | 0.6126 | nan | nan | 0.6126 | 0.0 | nan | 0.6126 |
80
+ | 0.088 | 25.88 | 440 | 0.0467 | 0.3041 | 0.6082 | 0.6082 | nan | nan | 0.6082 | 0.0 | nan | 0.6082 |
81
+ | 0.0472 | 27.06 | 460 | 0.0437 | 0.2623 | 0.5245 | 0.5245 | nan | nan | 0.5245 | 0.0 | nan | 0.5245 |
82
+ | 0.0396 | 28.24 | 480 | 0.0474 | 0.3352 | 0.6704 | 0.6704 | nan | nan | 0.6704 | 0.0 | nan | 0.6704 |
83
+ | 0.0351 | 29.41 | 500 | 0.0436 | 0.3060 | 0.6120 | 0.6120 | nan | nan | 0.6120 | 0.0 | nan | 0.6120 |
84
+ | 0.0392 | 30.59 | 520 | 0.0428 | 0.2975 | 0.5951 | 0.5951 | nan | nan | 0.5951 | 0.0 | nan | 0.5951 |
85
+ | 0.0317 | 31.76 | 540 | 0.0431 | 0.3253 | 0.6507 | 0.6507 | nan | nan | 0.6507 | 0.0 | nan | 0.6507 |
86
+ | 0.0391 | 32.94 | 560 | 0.0404 | 0.2863 | 0.5726 | 0.5726 | nan | nan | 0.5726 | 0.0 | nan | 0.5726 |
87
+ | 0.0309 | 34.12 | 580 | 0.0408 | 0.3215 | 0.6429 | 0.6429 | nan | nan | 0.6429 | 0.0 | nan | 0.6429 |
88
+ | 0.0493 | 35.29 | 600 | 0.0381 | 0.2581 | 0.5162 | 0.5162 | nan | nan | 0.5162 | 0.0 | nan | 0.5162 |
89
+ | 0.0321 | 36.47 | 620 | 0.0376 | 0.3147 | 0.6293 | 0.6293 | nan | nan | 0.6293 | 0.0 | nan | 0.6293 |
90
+ | 0.0333 | 37.65 | 640 | 0.0372 | 0.3118 | 0.6236 | 0.6236 | nan | nan | 0.6236 | 0.0 | nan | 0.6236 |
91
+ | 0.0295 | 38.82 | 660 | 0.0362 | 0.3036 | 0.6072 | 0.6072 | nan | nan | 0.6072 | 0.0 | nan | 0.6072 |
92
+ | 0.0302 | 40.0 | 680 | 0.0365 | 0.3157 | 0.6314 | 0.6314 | nan | nan | 0.6314 | 0.0 | nan | 0.6314 |
93
+ | 0.0272 | 41.18 | 700 | 0.0367 | 0.3012 | 0.6024 | 0.6024 | nan | nan | 0.6024 | 0.0 | nan | 0.6024 |
94
+ | 0.0278 | 42.35 | 720 | 0.0353 | 0.2935 | 0.5870 | 0.5870 | nan | nan | 0.5870 | 0.0 | nan | 0.5870 |
95
+ | 0.0283 | 43.53 | 740 | 0.0353 | 0.2970 | 0.5940 | 0.5940 | nan | nan | 0.5940 | 0.0 | nan | 0.5940 |
96
+ | 0.0256 | 44.71 | 760 | 0.0355 | 0.3090 | 0.6181 | 0.6181 | nan | nan | 0.6181 | 0.0 | nan | 0.6181 |
97
+ | 0.0365 | 45.88 | 780 | 0.0358 | 0.3008 | 0.6015 | 0.6015 | nan | nan | 0.6015 | 0.0 | nan | 0.6015 |
98
+ | 0.025 | 47.06 | 800 | 0.0353 | 0.2965 | 0.5930 | 0.5930 | nan | nan | 0.5930 | 0.0 | nan | 0.5930 |
99
+ | 0.0299 | 48.24 | 820 | 0.0361 | 0.3109 | 0.6219 | 0.6219 | nan | nan | 0.6219 | 0.0 | nan | 0.6219 |
100
+ | 0.0239 | 49.41 | 840 | 0.0354 | 0.3022 | 0.6045 | 0.6045 | nan | nan | 0.6045 | 0.0 | nan | 0.6045 |
101
 
102
 
103
  ### Framework versions
104
 
105
  - Transformers 4.28.0
106
+ - Pytorch 2.1.0+cu121
107
+ - Datasets 2.16.0
108
  - Tokenizers 0.13.3