roberta-large-ner-ghtk-gam-add-3label-new-data-3090-19Sep-1
This model is a fine-tuned version of Kudod/roberta-large-ner-ghtk-gam-7-label-new-data-3090-13Sep-1 on the None dataset. It achieves the following results on the evaluation set:
- Loss: 0.3288
- Hiều cao khách hàng: {'precision': 0.9523809523809523, 'recall': 1.0, 'f1': 0.975609756097561, 'number': 20}
- Hất tóc: {'precision': 0.5757575757575758, 'recall': 0.7037037037037037, 'f1': 0.6333333333333334, 'number': 27}
- Oại da: {'precision': 0.95, 'recall': 0.8260869565217391, 'f1': 0.8837209302325583, 'number': 23}
- Àu da: {'precision': 0.7419354838709677, 'recall': 0.6052631578947368, 'f1': 0.6666666666666666, 'number': 38}
- Áng khuôn mặt: {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16}
- Áng người: {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13}
- Ân nặng khách hàng: {'precision': 0.9666666666666667, 'recall': 0.9354838709677419, 'f1': 0.9508196721311476, 'number': 31}
- Ật độ tóc: {'precision': 0.9375, 'recall': 1.0, 'f1': 0.967741935483871, 'number': 15}
- Ặc điểm khác của da: {'precision': 0.7666666666666667, 'recall': 0.8214285714285714, 'f1': 0.793103448275862, 'number': 28}
- Ộ dài tóc: {'precision': 0.6190476190476191, 'recall': 0.7222222222222222, 'f1': 0.6666666666666666, 'number': 18}
- Overall Precision: 0.8112
- Overall Recall: 0.8253
- Overall F1: 0.8182
- Overall Accuracy: 0.9584
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2.5e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 10
Training results
Training Loss | Epoch | Step | Validation Loss | Hiều cao khách hàng | Hất tóc | Oại da | Àu da | Áng khuôn mặt | Áng người | Ân nặng khách hàng | Ật độ tóc | Ặc điểm khác của da | Ộ dài tóc | Overall Precision | Overall Recall | Overall F1 | Overall Accuracy |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
No log | 1.0 | 56 | 0.2688 | {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} | {'precision': 0.46875, 'recall': 0.5555555555555556, 'f1': 0.5084745762711864, 'number': 27} | {'precision': 0.8260869565217391, 'recall': 0.8260869565217391, 'f1': 0.8260869565217391, 'number': 23} | {'precision': 0.6216216216216216, 'recall': 0.6052631578947368, 'f1': 0.6133333333333333, 'number': 38} | {'precision': 0.7857142857142857, 'recall': 0.6875, 'f1': 0.7333333333333334, 'number': 16} | {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} | {'precision': 0.84375, 'recall': 0.8709677419354839, 'f1': 0.8571428571428571, 'number': 31} | {'precision': 0.875, 'recall': 0.9333333333333333, 'f1': 0.9032258064516129, 'number': 15} | {'precision': 0.6, 'recall': 0.75, 'f1': 0.6666666666666665, 'number': 28} | {'precision': 0.5384615384615384, 'recall': 0.7777777777777778, 'f1': 0.6363636363636364, 'number': 18} | 0.7052 | 0.7729 | 0.7375 | 0.9297 |
No log | 2.0 | 112 | 0.2991 | {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} | {'precision': 0.5, 'recall': 0.48148148148148145, 'f1': 0.49056603773584906, 'number': 27} | {'precision': 0.7727272727272727, 'recall': 0.7391304347826086, 'f1': 0.7555555555555555, 'number': 23} | {'precision': 0.7241379310344828, 'recall': 0.5526315789473685, 'f1': 0.6268656716417911, 'number': 38} | {'precision': 0.8125, 'recall': 0.8125, 'f1': 0.8125, 'number': 16} | {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} | {'precision': 0.9333333333333333, 'recall': 0.9032258064516129, 'f1': 0.9180327868852459, 'number': 31} | {'precision': 0.8571428571428571, 'recall': 0.8, 'f1': 0.8275862068965518, 'number': 15} | {'precision': 0.5161290322580645, 'recall': 0.5714285714285714, 'f1': 0.5423728813559322, 'number': 28} | {'precision': 0.56, 'recall': 0.7777777777777778, 'f1': 0.6511627906976745, 'number': 18} | 0.7293 | 0.7293 | 0.7293 | 0.9346 |
No log | 3.0 | 168 | 0.3144 | {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} | {'precision': 0.5483870967741935, 'recall': 0.6296296296296297, 'f1': 0.5862068965517241, 'number': 27} | {'precision': 0.8095238095238095, 'recall': 0.7391304347826086, 'f1': 0.7727272727272727, 'number': 23} | {'precision': 0.7, 'recall': 0.5526315789473685, 'f1': 0.6176470588235295, 'number': 38} | {'precision': 0.8421052631578947, 'recall': 1.0, 'f1': 0.9142857142857143, 'number': 16} | {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} | {'precision': 0.9333333333333333, 'recall': 0.9032258064516129, 'f1': 0.9180327868852459, 'number': 31} | {'precision': 0.875, 'recall': 0.9333333333333333, 'f1': 0.9032258064516129, 'number': 15} | {'precision': 0.6666666666666666, 'recall': 0.7142857142857143, 'f1': 0.689655172413793, 'number': 28} | {'precision': 0.5652173913043478, 'recall': 0.7222222222222222, 'f1': 0.6341463414634146, 'number': 18} | 0.7585 | 0.7817 | 0.7699 | 0.9384 |
No log | 4.0 | 224 | 0.3667 | {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} | {'precision': 0.5666666666666667, 'recall': 0.6296296296296297, 'f1': 0.5964912280701755, 'number': 27} | {'precision': 0.8181818181818182, 'recall': 0.782608695652174, 'f1': 0.8, 'number': 23} | {'precision': 0.7666666666666667, 'recall': 0.6052631578947368, 'f1': 0.676470588235294, 'number': 38} | {'precision': 0.8421052631578947, 'recall': 1.0, 'f1': 0.9142857142857143, 'number': 16} | {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} | {'precision': 0.9333333333333333, 'recall': 0.9032258064516129, 'f1': 0.9180327868852459, 'number': 31} | {'precision': 0.75, 'recall': 0.8, 'f1': 0.7741935483870969, 'number': 15} | {'precision': 0.65625, 'recall': 0.75, 'f1': 0.7, 'number': 28} | {'precision': 0.5909090909090909, 'recall': 0.7222222222222222, 'f1': 0.65, 'number': 18} | 0.7637 | 0.7904 | 0.7768 | 0.9411 |
No log | 5.0 | 280 | 0.3243 | {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} | {'precision': 0.5666666666666667, 'recall': 0.6296296296296297, 'f1': 0.5964912280701755, 'number': 27} | {'precision': 0.8095238095238095, 'recall': 0.7391304347826086, 'f1': 0.7727272727272727, 'number': 23} | {'precision': 0.7666666666666667, 'recall': 0.6052631578947368, 'f1': 0.676470588235294, 'number': 38} | {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16} | {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} | {'precision': 0.9333333333333333, 'recall': 0.9032258064516129, 'f1': 0.9180327868852459, 'number': 31} | {'precision': 0.75, 'recall': 0.8, 'f1': 0.7741935483870969, 'number': 15} | {'precision': 0.6875, 'recall': 0.7857142857142857, 'f1': 0.7333333333333334, 'number': 28} | {'precision': 0.5909090909090909, 'recall': 0.7222222222222222, 'f1': 0.65, 'number': 18} | 0.7660 | 0.7860 | 0.7759 | 0.9449 |
No log | 6.0 | 336 | 0.3534 | {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} | {'precision': 0.5151515151515151, 'recall': 0.6296296296296297, 'f1': 0.5666666666666667, 'number': 27} | {'precision': 0.8181818181818182, 'recall': 0.782608695652174, 'f1': 0.8, 'number': 23} | {'precision': 0.5833333333333334, 'recall': 0.5526315789473685, 'f1': 0.5675675675675677, 'number': 38} | {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16} | {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} | {'precision': 0.9666666666666667, 'recall': 0.9354838709677419, 'f1': 0.9508196721311476, 'number': 31} | {'precision': 0.8666666666666667, 'recall': 0.8666666666666667, 'f1': 0.8666666666666667, 'number': 15} | {'precision': 0.6285714285714286, 'recall': 0.7857142857142857, 'f1': 0.6984126984126985, 'number': 28} | {'precision': 0.52, 'recall': 0.7222222222222222, 'f1': 0.6046511627906976, 'number': 18} | 0.724 | 0.7904 | 0.7557 | 0.9405 |
No log | 7.0 | 392 | 0.3807 | {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} | {'precision': 0.5, 'recall': 0.5925925925925926, 'f1': 0.5423728813559322, 'number': 27} | {'precision': 0.7727272727272727, 'recall': 0.7391304347826086, 'f1': 0.7555555555555555, 'number': 23} | {'precision': 0.7333333333333333, 'recall': 0.5789473684210527, 'f1': 0.6470588235294117, 'number': 38} | {'precision': 0.8421052631578947, 'recall': 1.0, 'f1': 0.9142857142857143, 'number': 16} | {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} | {'precision': 0.9333333333333333, 'recall': 0.9032258064516129, 'f1': 0.9180327868852459, 'number': 31} | {'precision': 0.875, 'recall': 0.9333333333333333, 'f1': 0.9032258064516129, 'number': 15} | {'precision': 0.7096774193548387, 'recall': 0.7857142857142857, 'f1': 0.7457627118644068, 'number': 28} | {'precision': 0.5652173913043478, 'recall': 0.7222222222222222, 'f1': 0.6341463414634146, 'number': 18} | 0.7573 | 0.7904 | 0.7735 | 0.9422 |
No log | 8.0 | 448 | 0.3430 | {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} | {'precision': 0.5151515151515151, 'recall': 0.6296296296296297, 'f1': 0.5666666666666667, 'number': 27} | {'precision': 0.95, 'recall': 0.8260869565217391, 'f1': 0.8837209302325583, 'number': 23} | {'precision': 0.6774193548387096, 'recall': 0.5526315789473685, 'f1': 0.6086956521739131, 'number': 38} | {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16} | {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} | {'precision': 0.9666666666666667, 'recall': 0.9354838709677419, 'f1': 0.9508196721311476, 'number': 31} | {'precision': 0.875, 'recall': 0.9333333333333333, 'f1': 0.9032258064516129, 'number': 15} | {'precision': 0.7666666666666667, 'recall': 0.8214285714285714, 'f1': 0.793103448275862, 'number': 28} | {'precision': 0.5652173913043478, 'recall': 0.7222222222222222, 'f1': 0.6341463414634146, 'number': 18} | 0.7764 | 0.8035 | 0.7897 | 0.9497 |
0.0905 | 9.0 | 504 | 0.3254 | {'precision': 0.9523809523809523, 'recall': 1.0, 'f1': 0.975609756097561, 'number': 20} | {'precision': 0.5454545454545454, 'recall': 0.6666666666666666, 'f1': 0.6, 'number': 27} | {'precision': 0.95, 'recall': 0.8260869565217391, 'f1': 0.8837209302325583, 'number': 23} | {'precision': 0.7419354838709677, 'recall': 0.6052631578947368, 'f1': 0.6666666666666666, 'number': 38} | {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16} | {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} | {'precision': 0.9666666666666667, 'recall': 0.9354838709677419, 'f1': 0.9508196721311476, 'number': 31} | {'precision': 0.9375, 'recall': 1.0, 'f1': 0.967741935483871, 'number': 15} | {'precision': 0.7931034482758621, 'recall': 0.8214285714285714, 'f1': 0.8070175438596492, 'number': 28} | {'precision': 0.6190476190476191, 'recall': 0.7222222222222222, 'f1': 0.6666666666666666, 'number': 18} | 0.8103 | 0.8210 | 0.8156 | 0.9584 |
0.0905 | 10.0 | 560 | 0.3288 | {'precision': 0.9523809523809523, 'recall': 1.0, 'f1': 0.975609756097561, 'number': 20} | {'precision': 0.5757575757575758, 'recall': 0.7037037037037037, 'f1': 0.6333333333333334, 'number': 27} | {'precision': 0.95, 'recall': 0.8260869565217391, 'f1': 0.8837209302325583, 'number': 23} | {'precision': 0.7419354838709677, 'recall': 0.6052631578947368, 'f1': 0.6666666666666666, 'number': 38} | {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16} | {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} | {'precision': 0.9666666666666667, 'recall': 0.9354838709677419, 'f1': 0.9508196721311476, 'number': 31} | {'precision': 0.9375, 'recall': 1.0, 'f1': 0.967741935483871, 'number': 15} | {'precision': 0.7666666666666667, 'recall': 0.8214285714285714, 'f1': 0.793103448275862, 'number': 28} | {'precision': 0.6190476190476191, 'recall': 0.7222222222222222, 'f1': 0.6666666666666666, 'number': 18} | 0.8112 | 0.8253 | 0.8182 | 0.9584 |
Framework versions
- Transformers 4.44.0
- Pytorch 2.3.1+cu121
- Datasets 2.19.1
- Tokenizers 0.19.1
- Downloads last month
- 0
Model tree for Kudod/roberta-large-ner-ghtk-gam-add-3label-new-data-3090-19Sep-1
Base model
FacebookAI/xlm-roberta-large