Edit model card

roberta-large-ner-ghtk-gam-add-3label-new-data-3090-19Sep-1

This model is a fine-tuned version of Kudod/roberta-large-ner-ghtk-gam-7-label-new-data-3090-13Sep-1 on the None dataset. It achieves the following results on the evaluation set:

  • Loss: 0.3288
  • Hiều cao khách hàng: {'precision': 0.9523809523809523, 'recall': 1.0, 'f1': 0.975609756097561, 'number': 20}
  • Hất tóc: {'precision': 0.5757575757575758, 'recall': 0.7037037037037037, 'f1': 0.6333333333333334, 'number': 27}
  • Oại da: {'precision': 0.95, 'recall': 0.8260869565217391, 'f1': 0.8837209302325583, 'number': 23}
  • Àu da: {'precision': 0.7419354838709677, 'recall': 0.6052631578947368, 'f1': 0.6666666666666666, 'number': 38}
  • Áng khuôn mặt: {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16}
  • Áng người: {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13}
  • Ân nặng khách hàng: {'precision': 0.9666666666666667, 'recall': 0.9354838709677419, 'f1': 0.9508196721311476, 'number': 31}
  • Ật độ tóc: {'precision': 0.9375, 'recall': 1.0, 'f1': 0.967741935483871, 'number': 15}
  • Ặc điểm khác của da: {'precision': 0.7666666666666667, 'recall': 0.8214285714285714, 'f1': 0.793103448275862, 'number': 28}
  • Ộ dài tóc: {'precision': 0.6190476190476191, 'recall': 0.7222222222222222, 'f1': 0.6666666666666666, 'number': 18}
  • Overall Precision: 0.8112
  • Overall Recall: 0.8253
  • Overall F1: 0.8182
  • Overall Accuracy: 0.9584

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 2.5e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 10

Training results

Training Loss Epoch Step Validation Loss Hiều cao khách hàng Hất tóc Oại da Àu da Áng khuôn mặt Áng người Ân nặng khách hàng Ật độ tóc Ặc điểm khác của da Ộ dài tóc Overall Precision Overall Recall Overall F1 Overall Accuracy
No log 1.0 56 0.2688 {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} {'precision': 0.46875, 'recall': 0.5555555555555556, 'f1': 0.5084745762711864, 'number': 27} {'precision': 0.8260869565217391, 'recall': 0.8260869565217391, 'f1': 0.8260869565217391, 'number': 23} {'precision': 0.6216216216216216, 'recall': 0.6052631578947368, 'f1': 0.6133333333333333, 'number': 38} {'precision': 0.7857142857142857, 'recall': 0.6875, 'f1': 0.7333333333333334, 'number': 16} {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} {'precision': 0.84375, 'recall': 0.8709677419354839, 'f1': 0.8571428571428571, 'number': 31} {'precision': 0.875, 'recall': 0.9333333333333333, 'f1': 0.9032258064516129, 'number': 15} {'precision': 0.6, 'recall': 0.75, 'f1': 0.6666666666666665, 'number': 28} {'precision': 0.5384615384615384, 'recall': 0.7777777777777778, 'f1': 0.6363636363636364, 'number': 18} 0.7052 0.7729 0.7375 0.9297
No log 2.0 112 0.2991 {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} {'precision': 0.5, 'recall': 0.48148148148148145, 'f1': 0.49056603773584906, 'number': 27} {'precision': 0.7727272727272727, 'recall': 0.7391304347826086, 'f1': 0.7555555555555555, 'number': 23} {'precision': 0.7241379310344828, 'recall': 0.5526315789473685, 'f1': 0.6268656716417911, 'number': 38} {'precision': 0.8125, 'recall': 0.8125, 'f1': 0.8125, 'number': 16} {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} {'precision': 0.9333333333333333, 'recall': 0.9032258064516129, 'f1': 0.9180327868852459, 'number': 31} {'precision': 0.8571428571428571, 'recall': 0.8, 'f1': 0.8275862068965518, 'number': 15} {'precision': 0.5161290322580645, 'recall': 0.5714285714285714, 'f1': 0.5423728813559322, 'number': 28} {'precision': 0.56, 'recall': 0.7777777777777778, 'f1': 0.6511627906976745, 'number': 18} 0.7293 0.7293 0.7293 0.9346
No log 3.0 168 0.3144 {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} {'precision': 0.5483870967741935, 'recall': 0.6296296296296297, 'f1': 0.5862068965517241, 'number': 27} {'precision': 0.8095238095238095, 'recall': 0.7391304347826086, 'f1': 0.7727272727272727, 'number': 23} {'precision': 0.7, 'recall': 0.5526315789473685, 'f1': 0.6176470588235295, 'number': 38} {'precision': 0.8421052631578947, 'recall': 1.0, 'f1': 0.9142857142857143, 'number': 16} {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} {'precision': 0.9333333333333333, 'recall': 0.9032258064516129, 'f1': 0.9180327868852459, 'number': 31} {'precision': 0.875, 'recall': 0.9333333333333333, 'f1': 0.9032258064516129, 'number': 15} {'precision': 0.6666666666666666, 'recall': 0.7142857142857143, 'f1': 0.689655172413793, 'number': 28} {'precision': 0.5652173913043478, 'recall': 0.7222222222222222, 'f1': 0.6341463414634146, 'number': 18} 0.7585 0.7817 0.7699 0.9384
No log 4.0 224 0.3667 {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} {'precision': 0.5666666666666667, 'recall': 0.6296296296296297, 'f1': 0.5964912280701755, 'number': 27} {'precision': 0.8181818181818182, 'recall': 0.782608695652174, 'f1': 0.8, 'number': 23} {'precision': 0.7666666666666667, 'recall': 0.6052631578947368, 'f1': 0.676470588235294, 'number': 38} {'precision': 0.8421052631578947, 'recall': 1.0, 'f1': 0.9142857142857143, 'number': 16} {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} {'precision': 0.9333333333333333, 'recall': 0.9032258064516129, 'f1': 0.9180327868852459, 'number': 31} {'precision': 0.75, 'recall': 0.8, 'f1': 0.7741935483870969, 'number': 15} {'precision': 0.65625, 'recall': 0.75, 'f1': 0.7, 'number': 28} {'precision': 0.5909090909090909, 'recall': 0.7222222222222222, 'f1': 0.65, 'number': 18} 0.7637 0.7904 0.7768 0.9411
No log 5.0 280 0.3243 {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} {'precision': 0.5666666666666667, 'recall': 0.6296296296296297, 'f1': 0.5964912280701755, 'number': 27} {'precision': 0.8095238095238095, 'recall': 0.7391304347826086, 'f1': 0.7727272727272727, 'number': 23} {'precision': 0.7666666666666667, 'recall': 0.6052631578947368, 'f1': 0.676470588235294, 'number': 38} {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16} {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} {'precision': 0.9333333333333333, 'recall': 0.9032258064516129, 'f1': 0.9180327868852459, 'number': 31} {'precision': 0.75, 'recall': 0.8, 'f1': 0.7741935483870969, 'number': 15} {'precision': 0.6875, 'recall': 0.7857142857142857, 'f1': 0.7333333333333334, 'number': 28} {'precision': 0.5909090909090909, 'recall': 0.7222222222222222, 'f1': 0.65, 'number': 18} 0.7660 0.7860 0.7759 0.9449
No log 6.0 336 0.3534 {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} {'precision': 0.5151515151515151, 'recall': 0.6296296296296297, 'f1': 0.5666666666666667, 'number': 27} {'precision': 0.8181818181818182, 'recall': 0.782608695652174, 'f1': 0.8, 'number': 23} {'precision': 0.5833333333333334, 'recall': 0.5526315789473685, 'f1': 0.5675675675675677, 'number': 38} {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16} {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} {'precision': 0.9666666666666667, 'recall': 0.9354838709677419, 'f1': 0.9508196721311476, 'number': 31} {'precision': 0.8666666666666667, 'recall': 0.8666666666666667, 'f1': 0.8666666666666667, 'number': 15} {'precision': 0.6285714285714286, 'recall': 0.7857142857142857, 'f1': 0.6984126984126985, 'number': 28} {'precision': 0.52, 'recall': 0.7222222222222222, 'f1': 0.6046511627906976, 'number': 18} 0.724 0.7904 0.7557 0.9405
No log 7.0 392 0.3807 {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} {'precision': 0.5, 'recall': 0.5925925925925926, 'f1': 0.5423728813559322, 'number': 27} {'precision': 0.7727272727272727, 'recall': 0.7391304347826086, 'f1': 0.7555555555555555, 'number': 23} {'precision': 0.7333333333333333, 'recall': 0.5789473684210527, 'f1': 0.6470588235294117, 'number': 38} {'precision': 0.8421052631578947, 'recall': 1.0, 'f1': 0.9142857142857143, 'number': 16} {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} {'precision': 0.9333333333333333, 'recall': 0.9032258064516129, 'f1': 0.9180327868852459, 'number': 31} {'precision': 0.875, 'recall': 0.9333333333333333, 'f1': 0.9032258064516129, 'number': 15} {'precision': 0.7096774193548387, 'recall': 0.7857142857142857, 'f1': 0.7457627118644068, 'number': 28} {'precision': 0.5652173913043478, 'recall': 0.7222222222222222, 'f1': 0.6341463414634146, 'number': 18} 0.7573 0.7904 0.7735 0.9422
No log 8.0 448 0.3430 {'precision': 0.8695652173913043, 'recall': 1.0, 'f1': 0.9302325581395349, 'number': 20} {'precision': 0.5151515151515151, 'recall': 0.6296296296296297, 'f1': 0.5666666666666667, 'number': 27} {'precision': 0.95, 'recall': 0.8260869565217391, 'f1': 0.8837209302325583, 'number': 23} {'precision': 0.6774193548387096, 'recall': 0.5526315789473685, 'f1': 0.6086956521739131, 'number': 38} {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16} {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} {'precision': 0.9666666666666667, 'recall': 0.9354838709677419, 'f1': 0.9508196721311476, 'number': 31} {'precision': 0.875, 'recall': 0.9333333333333333, 'f1': 0.9032258064516129, 'number': 15} {'precision': 0.7666666666666667, 'recall': 0.8214285714285714, 'f1': 0.793103448275862, 'number': 28} {'precision': 0.5652173913043478, 'recall': 0.7222222222222222, 'f1': 0.6341463414634146, 'number': 18} 0.7764 0.8035 0.7897 0.9497
0.0905 9.0 504 0.3254 {'precision': 0.9523809523809523, 'recall': 1.0, 'f1': 0.975609756097561, 'number': 20} {'precision': 0.5454545454545454, 'recall': 0.6666666666666666, 'f1': 0.6, 'number': 27} {'precision': 0.95, 'recall': 0.8260869565217391, 'f1': 0.8837209302325583, 'number': 23} {'precision': 0.7419354838709677, 'recall': 0.6052631578947368, 'f1': 0.6666666666666666, 'number': 38} {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16} {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} {'precision': 0.9666666666666667, 'recall': 0.9354838709677419, 'f1': 0.9508196721311476, 'number': 31} {'precision': 0.9375, 'recall': 1.0, 'f1': 0.967741935483871, 'number': 15} {'precision': 0.7931034482758621, 'recall': 0.8214285714285714, 'f1': 0.8070175438596492, 'number': 28} {'precision': 0.6190476190476191, 'recall': 0.7222222222222222, 'f1': 0.6666666666666666, 'number': 18} 0.8103 0.8210 0.8156 0.9584
0.0905 10.0 560 0.3288 {'precision': 0.9523809523809523, 'recall': 1.0, 'f1': 0.975609756097561, 'number': 20} {'precision': 0.5757575757575758, 'recall': 0.7037037037037037, 'f1': 0.6333333333333334, 'number': 27} {'precision': 0.95, 'recall': 0.8260869565217391, 'f1': 0.8837209302325583, 'number': 23} {'precision': 0.7419354838709677, 'recall': 0.6052631578947368, 'f1': 0.6666666666666666, 'number': 38} {'precision': 0.8333333333333334, 'recall': 0.9375, 'f1': 0.8823529411764706, 'number': 16} {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 13} {'precision': 0.9666666666666667, 'recall': 0.9354838709677419, 'f1': 0.9508196721311476, 'number': 31} {'precision': 0.9375, 'recall': 1.0, 'f1': 0.967741935483871, 'number': 15} {'precision': 0.7666666666666667, 'recall': 0.8214285714285714, 'f1': 0.793103448275862, 'number': 28} {'precision': 0.6190476190476191, 'recall': 0.7222222222222222, 'f1': 0.6666666666666666, 'number': 18} 0.8112 0.8253 0.8182 0.9584

Framework versions

  • Transformers 4.44.0
  • Pytorch 2.3.1+cu121
  • Datasets 2.19.1
  • Tokenizers 0.19.1
Downloads last month
0
Safetensors
Model size
559M params
Tensor type
F32
·
Inference API
Unable to determine this model's library. Check the docs .

Model tree for Kudod/roberta-large-ner-ghtk-gam-add-3label-new-data-3090-19Sep-1