Edit model card

SentenceTransformer based on BAAI/bge-m3

This is a sentence-transformers model finetuned from BAAI/bge-m3. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: BAAI/bge-m3
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 1024 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("comet24082002/ft_bge_newLaw_OnlineContrastiveLoss_V2_5epochs")
# Run inference
sentences = [
    'Giấy phép học viên bay của nhân viên hàng không có thời hạn hiệu lực không?',
    'Gia hạn thời gian làm việc đối với chuyên gia giáo dục\n1. Chuyên gia giáo dục khi hết thời hạn làm việc theo quyết định cử đi làm việc ở nước ngoài, nếu hoàn thành tốt nhiệm vụ quy định tại Điều 7 Quy chế này và có nguyện vọng tiếp tục làm việc ở nước ngoài, được cơ quan chủ quản (nếu có) và cơ quan sử dụng chuyên gia của nước ngoài đồng ý bằng văn bản thì được xem xét gia hạn thời gian làm việc.\nSau 60 ngày làm việc kể từ ngày hết thời hạn làm việc ghi trong Quyết định cử đi làm việc, nếu chuyên gia giáo dục không đề nghị gia hạn thời gian làm việc thì không được xem xét gia hạn thời gian làm việc.\n...',
    'Đối tượng áp dụng\nNghị định này áp dụng đối với:\n1. Tác giả, đồng tác giả (sau đây gọi là tác giả) là công dân Việt Nam, người nước ngoài có tác phẩm, cụm tác phẩm, công trình, cụm công trình (sau đây gọi là tác phẩm, công trình) văn học, nghệ thuật đáp ứng các điều kiện, tiêu chuẩn quy định tại các Điều 8, 9 và 10 của Nghị định này, thuộc các chuyên ngành sau đây được đề nghị xét tặng “Giải thưởng Hồ Chí Minh" “Giải thưởng Nhà nước”:\na) Âm nhạc: Tác phẩm thuộc các thể loại âm nhạc; công trình nghiên cứu, lý luận, phê bình về âm nhạc;\n...',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

Unnamed Dataset

  • Size: 21,048 training samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 label
    type string string int
    details
    • min: 8 tokens
    • mean: 24.18 tokens
    • max: 45 tokens
    • min: 18 tokens
    • mean: 278.29 tokens
    • max: 512 tokens
    • 0: ~50.00%
    • 1: ~50.00%
  • Samples:
    sentence1 sentence2 label
    Người đóng bảo hiểm xã hội trên 15 năm thì có được hưởng trợ cấp mai táng nhiều hơn người đóng bảo hiểm xã hội dưới 15 năm không? "Điều 66. Trợ cấp mai táng
    1. Những người sau đây khi chết thì người lo mai táng được nhận một lần trợ cấp mai táng:
    a) Người lao động quy định tại khoản 1 Điều 2 của Luật này đang đóng bảo hiểm xã hội hoặc người lao động đang bảo lưu thời gian đóng bảo hiểm xã hội mà đã có thời gian đóng từ đủ 12 tháng trở lên;
    b) Người lao động chết do tai nạn lao động, bệnh nghề nghiệp hoặc chết trong thời gian điều trị do tai nạn lao động, bệnh nghề nghiệp;
    c) Người đang hưởng lương hưu; hưởng trợ cấp tai nạn lao động, bệnh nghề nghiệp hằng tháng đã nghỉ việc.
    2. Trợ cấp mai táng bằng 10 lần mức lương cơ sở tại tháng mà người quy định tại khoản 1 Điều này chết.
    3. Người quy định tại khoản 1 Điều này bị Tòa án tuyên bố là đã chết thì thân nhân được hưởng trợ cấp mai táng quy định tại khoản 2 Điều này.
    Điều 67. Các trường hợp hưởng trợ cấp tuất hằng tháng
    1. Những người quy định tại khoản 1 và khoản 3 Điều 66 của Luật này thuộc một trong các trường hợp sau đây khi chết thì thân nhân được hưởng tiền tuất hằng tháng:
    a) Đã đóng bảo hiểm xã hội đủ 15 năm trở lên nhưng chưa hưởng bảo hiểm xã hội một lần;
    b) Đang hưởng lương hưu;
    c) Chết do tai nạn lao động, bệnh nghề nghiệp;
    d) Đang hưởng trợ cấp tai nạn lao động, bệnh nghề nghiệp hằng tháng với mức suy giảm khả năng lao động từ 61 % trở lên.
    ..."
    1
    Người đóng bảo hiểm xã hội trên 15 năm thì có được hưởng trợ cấp mai táng nhiều hơn người đóng bảo hiểm xã hội dưới 15 năm không? Chính sách đối với người lao động dôi dư được tuyển dụng lần cuối cùng trước ngày 21 tháng 4 năm 1998 hoặc trước ngày 26 tháng 4 năm 2002
    Người lao động dôi dư quy định tại điểm a và b khoản 1 Điều 2 Nghị định này được hưởng chính sách như sau:
    1. Người lao động dôi dư có tuổi thấp hơn từ đủ 01 tuổi đến đủ 05 tuổi so với tuổi nghỉ hưu quy định tại khoản 2 Điều 169 Bộ luật Lao động và Điều 4 Nghị định số 135/2020/NĐ-CP ngày 18 tháng 11 năm 2020 của Chính phủ quy định về tuổi nghỉ hưu (sau đây gọi là Nghị định số 135/2020/NĐ-CP), có đủ 20 năm đóng bảo hiểm xã hội bắt buộc trở lên thì được hưởng lương hưu và được hưởng thêm các chế độ sau:
    a) Không bị trừ tỷ lệ lương hưu do nghỉ hưu trước tuổi;
    ...
    2. Người lao động dôi dư có tuổi thấp hơn dưới 01 tuổi so với tuổi nghi hưu quy định tại khoản 2 Điều 169 Bộ luật Lao động và Điều 4 Nghị định số 135/2020/NĐ-CP, có đủ 20 năm đóng bảo hiểm xã hội bắt buộc trở lên thì được hưởng lương hưu và được hưởng thêm các chế độ sau:
    a) Không bị trừ tỷ lệ hưởng lương hưu do nghỉ hưu trước tuổi;
    ....
    0
    Sĩ quan Công an được tặng thưởng Huân chương Chiến công hạng Nhì khi đáp ứng tiêu chuẩn gì? "Điều 28. “Huân chương Chiến công” hạng nhất
    1. “Huân chương Chiến công” hạng nhất để tặng hoặc truy tặng cho cá nhân đạt một trong các tiêu chuẩn sau:
    a) Lập được chiến công đặc biệt xuất sắc trong chiến đấu, phục vụ chiến đấu, thành tích đạt được có phạm vi ảnh hưởng và nêu gương trong toàn quốc được bộ, ban, ngành, tỉnh, đoàn thể trung ương công nhận;
    b) Mưu trí, sáng tạo, đạt hiệu quả cao trong chiến đấu và phục vụ chiến đấu bảo vệ chủ quyền, an ninh quốc gia hoặc không sợ hy sinh tính mạng, kiên quyết đấu tranh với tội phạm, góp phần giữ vững an ninh chính trị, trật tự, an toàn xã hội; hoàn thành xuất sắc nhiệm vụ được giao; thành tích đạt được có phạm vi ảnh hưởng và nêu gương trong toàn quốc được bộ, ban, ngành, tỉnh, đssoàn thể trung ương công nhận.
    [...]"
    "Điều 29. “Huân chương Chiến công” hạng nhì
    1. “Huân chương Chiến công” hạng nhì để tặng hoặc truy tặng cho cá nhân đạt một trong các tiêu chuẩn sau:
    a) Lập được chiến công xuất sắc trong chiến đấu, phục vụ chiến đấu, thành tích đạt được có tác dụng động viên, giáo dục, nêu gương trong toàn quân, toàn lực lượng Công an nhân dân hoặc trong bộ, ban, ngành, tỉnh, đoàn thể trung ương được bộ, ban, ngành, tỉnh, đoàn thể trung ương công nhận;
    b) Chủ động, mưu trí, dũng cảm, đạt hiệu quả cao trong chiến đấu và phục vụ chiến đấu bảo vệ chủ quyền, an ninh quốc gia hoặc đấu tranh với tội phạm, góp phần giữ vững an ninh chính trị, trật tự, an toàn xã hội, thành tích đạt được có tác dụng động viên, giáo dục, nêu gương trong toàn quân, toàn lực lượng Công an nhân dân hoặc trong bộ, ban, ngành, tỉnh, đoàn thể trung ương được bộ, ban, ngành, tỉnh, đoàn thể trung ương công nhận.
    [...]"
    "Điều 30. “Huân chương Chiến công” hạng ba
    1. “Huân chương Chiến công” hạng ba để tặng hoặc truy tặng cho cá nhân đạt một trong các tiêu chuẩn sau:
    a) Dũng cảm, mưu trí, sáng tạo, hoàn thành xuất sắc nhiệm vụ trong chiến đấu, phục vụ chiến đấu, thành tích đạt được có tác dụng động viên, giáo dục, nêu gương trong toàn quân khu, quân đoàn, quân chủng, binh chủng, tổng cục và tương đương hoặc tỉnh, thành phố trực thuộc trung ương được bộ, ban, ngành, tỉnh, đoàn thể trung ương công nhận;
    b) Mưu trí, dũng cảm, đạt hiệu quả cao trong chiến đấu và phục vụ chiến đấu bảo vệ chủ quyền, an ninh quốc gia hoặc đấu tranh với tội phạm, góp phần giữ vững an ninh chính trị, trật tự, an toàn xã hội, thành tích đạt được có tác dụng động viên, giáo dục, nêu gương trong toàn quân khu, quân đoàn, quân chủng, binh chủng, tổng cục và tương đương hoặc tỉnh, thành phố trực thuộc trung ương được bộ, ban, ngành, tỉnh, đoàn thể trung ương công nhận.
    [...]"
    1
  • Loss: OnlineContrastiveLoss

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 4
  • learning_rate: 2e-05
  • num_train_epochs: 5
  • warmup_ratio: 0.1

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • prediction_loss_only: True
  • per_device_train_batch_size: 4
  • per_device_eval_batch_size: 8
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss
0.0095 50 0.1183
0.0190 100 0.1332
0.0285 150 0.1154
0.0380 200 0.0859
0.0475 250 0.0699
0.0570 300 0.0476
0.0665 350 0.0637
0.0760 400 0.0735
0.0855 450 0.0607
0.0950 500 0.0786
0.1045 550 0.0459
0.1140 600 0.0591
0.1235 650 0.0666
0.1330 700 0.0712
0.1425 750 0.0548
0.1520 800 0.0641
0.1615 850 0.0515
0.1710 900 0.0604
0.1805 950 0.0484
0.1900 1000 0.0415
0.1995 1050 0.0732
0.2090 1100 0.0586
0.2185 1150 0.0431
0.2281 1200 0.0788
0.2376 1250 0.0527
0.2471 1300 0.0454
0.2566 1350 0.0638
0.2661 1400 0.0734
0.2756 1450 0.0524
0.2851 1500 0.066
0.2946 1550 0.0715
0.3041 1600 0.0554
0.3136 1650 0.0812
0.3231 1700 0.0513
0.3326 1750 0.0533
0.3421 1800 0.0485
0.3516 1850 0.0672
0.3611 1900 0.0594
0.3706 1950 0.0367
0.3801 2000 0.0902
0.3896 2050 0.0629
0.3991 2100 0.0775
0.4086 2150 0.0636
0.4181 2200 0.0829
0.4276 2250 0.1067
0.4371 2300 0.0681
0.4466 2350 0.067
0.4561 2400 0.0429
0.4656 2450 0.0696
0.4751 2500 0.0928
0.4846 2550 0.0575
0.4941 2600 0.0728
0.5036 2650 0.0644
0.5131 2700 0.0677
0.5226 2750 0.0604
0.5321 2800 0.0728
0.5416 2850 0.0722
0.5511 2900 0.0606
0.5606 2950 0.0622
0.5701 3000 0.0367
0.5796 3050 0.0644
0.5891 3100 0.0811
0.5986 3150 0.0575
0.6081 3200 0.0945
0.6176 3250 0.0595
0.6271 3300 0.0605
0.6366 3350 0.0716
0.6461 3400 0.0596
0.6556 3450 0.0512
0.6651 3500 0.0711
0.6746 3550 0.0639
0.6842 3600 0.0734
0.6937 3650 0.0789
0.7032 3700 0.0588
0.7127 3750 0.0722
0.7222 3800 0.0841
0.7317 3850 0.0789
0.7412 3900 0.0753
0.7507 3950 0.0852
0.7602 4000 0.0723
0.7697 4050 0.0511
0.7792 4100 0.0626
0.7887 4150 0.0627
0.7982 4200 0.0481
0.8077 4250 0.0656
0.8172 4300 0.0595
0.8267 4350 0.0449
0.8362 4400 0.0916
0.8457 4450 0.0655
0.8552 4500 0.0562
0.8647 4550 0.0544
0.8742 4600 0.063
0.8837 4650 0.0629
0.8932 4700 0.0798
0.9027 4750 0.0417
0.9122 4800 0.0675
0.9217 4850 0.0661
0.9312 4900 0.0616
0.9407 4950 0.047
0.9502 5000 0.0843
0.9597 5050 0.061
0.9692 5100 0.0683
0.9787 5150 0.0544
0.9882 5200 0.0644
0.9977 5250 0.0759
1.0072 5300 0.0613
1.0167 5350 0.0371
1.0262 5400 0.063
1.0357 5450 0.0528
1.0452 5500 0.05
1.0547 5550 0.0408
1.0642 5600 0.0429
1.0737 5650 0.0481
1.0832 5700 0.0256
1.0927 5750 0.0853
1.1022 5800 0.0534
1.1117 5850 0.0571
1.1212 5900 0.0514
1.1307 5950 0.0784
1.1403 6000 0.0617
1.1498 6050 0.0474
1.1593 6100 0.0715
1.1688 6150 0.082
1.1783 6200 0.0464
1.1878 6250 0.0384
1.1973 6300 0.0492
1.2068 6350 0.046
1.2163 6400 0.0449
1.2258 6450 0.0545
1.2353 6500 0.0301
1.2448 6550 0.045
1.2543 6600 0.0569
1.2638 6650 0.0577
1.2733 6700 0.0394
1.2828 6750 0.0632
1.2923 6800 0.0358
1.3018 6850 0.0525
1.3113 6900 0.0389
1.3208 6950 0.0541
1.3303 7000 0.0559
1.3398 7050 0.052
1.3493 7100 0.0562
1.3588 7150 0.0403
1.3683 7200 0.0284
1.3778 7250 0.0543
1.3873 7300 0.0541
1.3968 7350 0.0687
1.4063 7400 0.0444
1.4158 7450 0.0487
1.4253 7500 0.0505
1.4348 7550 0.0451
1.4443 7600 0.0533
1.4538 7650 0.0306
1.4633 7700 0.0571
1.4728 7750 0.0607
1.4823 7800 0.0524
1.4918 7850 0.0559
1.5013 7900 0.0507
1.5108 7950 0.0632
1.5203 8000 0.0509
1.5298 8050 0.0585
1.5393 8100 0.0792
1.5488 8150 0.0724
1.5583 8200 0.0491
1.5678 8250 0.0472
1.5773 8300 0.0638
1.5868 8350 0.0547
1.5964 8400 0.0577
1.6059 8450 0.0393
1.6154 8500 0.0554
1.6249 8550 0.0486
1.6344 8600 0.0444
1.6439 8650 0.0399
1.6534 8700 0.0412
1.6629 8750 0.0487
1.6724 8800 0.0506
1.6819 8850 0.0536
1.6914 8900 0.0558
1.7009 8950 0.0674
1.7104 9000 0.061
1.7199 9050 0.0467
1.7294 9100 0.0537
1.7389 9150 0.0423
1.7484 9200 0.0502
1.7579 9250 0.0462
1.7674 9300 0.0583
1.7769 9350 0.0525
1.7864 9400 0.044
1.7959 9450 0.0416
1.8054 9500 0.0635
1.8149 9550 0.0539
1.8244 9600 0.0379
1.8339 9650 0.0604
1.8434 9700 0.0673
1.8529 9750 0.0499
1.8624 9800 0.0273
1.8719 9850 0.0394
1.8814 9900 0.0407
1.8909 9950 0.0451
1.9004 10000 0.0356
1.9099 10050 0.0409
1.9194 10100 0.0426
1.9289 10150 0.057
1.9384 10200 0.0456
1.9479 10250 0.0404
1.9574 10300 0.0396
1.9669 10350 0.0407
1.9764 10400 0.0483
1.9859 10450 0.0457
1.9954 10500 0.0413
2.0049 10550 0.0455
2.0144 10600 0.0385
2.0239 10650 0.0391
2.0334 10700 0.0266
2.0429 10750 0.0386
2.0525 10800 0.0201
2.0620 10850 0.0208
2.0715 10900 0.0388
2.0810 10950 0.0484
2.0905 11000 0.0356
2.1000 11050 0.0553
2.1095 11100 0.0373
2.1190 11150 0.031
2.1285 11200 0.034
2.1380 11250 0.0256
2.1475 11300 0.0338
2.1570 11350 0.0263
2.1665 11400 0.0413
2.1760 11450 0.0242
2.1855 11500 0.0385
2.1950 11550 0.0351
2.2045 11600 0.0472
2.2140 11650 0.049
2.2235 11700 0.0263
2.2330 11750 0.0279
2.2425 11800 0.0348
2.2520 11850 0.0422
2.2615 11900 0.0338
2.2710 11950 0.0333
2.2805 12000 0.0466
2.2900 12050 0.0338
2.2995 12100 0.0273
2.3090 12150 0.0381
2.3185 12200 0.025
2.3280 12250 0.0627
2.3375 12300 0.0274
2.3470 12350 0.0519
2.3565 12400 0.0321
2.3660 12450 0.0251
2.3755 12500 0.0371
2.3850 12550 0.033
2.3945 12600 0.0363
2.4040 12650 0.0334
2.4135 12700 0.0387
2.4230 12750 0.0416
2.4325 12800 0.0308
2.4420 12850 0.0299
2.4515 12900 0.0326
2.4610 12950 0.03
2.4705 13000 0.0261
2.4800 13050 0.0437
2.4895 13100 0.041
2.4990 13150 0.0392
2.5086 13200 0.0449
2.5181 13250 0.0371
2.5276 13300 0.0545
2.5371 13350 0.0327
2.5466 13400 0.0384
2.5561 13450 0.025
2.5656 13500 0.0374
2.5751 13550 0.0382
2.5846 13600 0.0472
2.5941 13650 0.0319
2.6036 13700 0.0409
2.6131 13750 0.0372
2.6226 13800 0.0363
2.6321 13850 0.0298
2.6416 13900 0.0316
2.6511 13950 0.0363
2.6606 14000 0.0318
2.6701 14050 0.0444
2.6796 14100 0.0546
2.6891 14150 0.0284
2.6986 14200 0.0288
2.7081 14250 0.0375
2.7176 14300 0.0524
2.7271 14350 0.0489
2.7366 14400 0.0414
2.7461 14450 0.034
2.7556 14500 0.0196
2.7651 14550 0.0512
2.7746 14600 0.0381
2.7841 14650 0.0309
2.7936 14700 0.0305
2.8031 14750 0.0377
2.8126 14800 0.0359
2.8221 14850 0.0347
2.8316 14900 0.029
2.8411 14950 0.0239
2.8506 15000 0.0335
2.8601 15050 0.0253
2.8696 15100 0.0323
2.8791 15150 0.039
2.8886 15200 0.0276
2.8981 15250 0.0275
2.9076 15300 0.0374
2.9171 15350 0.0378
2.9266 15400 0.0355
2.9361 15450 0.0293
2.9456 15500 0.0313
2.9552 15550 0.0279
2.9647 15600 0.0283
2.9742 15650 0.0339
2.9837 15700 0.0628
2.9932 15750 0.0264
3.0027 15800 0.0389
3.0122 15850 0.0285
3.0217 15900 0.0229
3.0312 15950 0.0269
3.0407 16000 0.0309
3.0502 16050 0.0186
3.0597 16100 0.0202
3.0692 16150 0.0195
3.0787 16200 0.0193
3.0882 16250 0.0204
3.0977 16300 0.0204
3.1072 16350 0.019
3.1167 16400 0.0361
3.1262 16450 0.0237
3.1357 16500 0.0197
3.1452 16550 0.0276
3.1547 16600 0.0173
3.1642 16650 0.0303
3.1737 16700 0.0272
3.1832 16750 0.0332
3.1927 16800 0.0247
3.2022 16850 0.0239
3.2117 16900 0.0259
3.2212 16950 0.0207
3.2307 17000 0.0245
3.2402 17050 0.0303
3.2497 17100 0.0147
3.2592 17150 0.0383
3.2687 17200 0.0369
3.2782 17250 0.0221
3.2877 17300 0.0286
3.2972 17350 0.0234
3.3067 17400 0.0312
3.3162 17450 0.0194
3.3257 17500 0.0147
3.3352 17550 0.0234
3.3447 17600 0.0304
3.3542 17650 0.0265
3.3637 17700 0.0114
3.3732 17750 0.0288
3.3827 17800 0.0263
3.3922 17850 0.0309
3.4017 17900 0.0225
3.4113 17950 0.017
3.4208 18000 0.0292
3.4303 18050 0.0127
3.4398 18100 0.0188
3.4493 18150 0.017
3.4588 18200 0.0193
3.4683 18250 0.0192
3.4778 18300 0.0341
3.4873 18350 0.0233
3.4968 18400 0.0287
3.5063 18450 0.0277
3.5158 18500 0.0291
3.5253 18550 0.035
3.5348 18600 0.0165
3.5443 18650 0.0239
3.5538 18700 0.0255
3.5633 18750 0.0202
3.5728 18800 0.0288
3.5823 18850 0.0232
3.5918 18900 0.0229
3.6013 18950 0.0161
3.6108 19000 0.023
3.6203 19050 0.0232
3.6298 19100 0.0264
3.6393 19150 0.0325
3.6488 19200 0.028
3.6583 19250 0.0318
3.6678 19300 0.0278
3.6773 19350 0.0224
3.6868 19400 0.0239
3.6963 19450 0.027
3.7058 19500 0.0223
3.7153 19550 0.0263
3.7248 19600 0.0179
3.7343 19650 0.0221
3.7438 19700 0.0399
3.7533 19750 0.0182
3.7628 19800 0.0299
3.7723 19850 0.0208
3.7818 19900 0.0173
3.7913 19950 0.0452
3.8008 20000 0.0243
3.8103 20050 0.0256
3.8198 20100 0.0255
3.8293 20150 0.02
3.8388 20200 0.0292
3.8483 20250 0.0249
3.8578 20300 0.0339
3.8674 20350 0.0168
3.8769 20400 0.0199
3.8864 20450 0.0182
3.8959 20500 0.0292
3.9054 20550 0.039
3.9149 20600 0.0208
3.9244 20650 0.0243
3.9339 20700 0.0253
3.9434 20750 0.0212
3.9529 20800 0.0206
3.9624 20850 0.0299
3.9719 20900 0.0237
3.9814 20950 0.0228
3.9909 21000 0.022
4.0004 21050 0.0221
4.0099 21100 0.0153
4.0194 21150 0.0262
4.0289 21200 0.0249
4.0384 21250 0.0204
4.0479 21300 0.017
4.0574 21350 0.0241
4.0669 21400 0.016
4.0764 21450 0.024
4.0859 21500 0.0162
4.0954 21550 0.0154
4.1049 21600 0.0084
4.1144 21650 0.0181
4.1239 21700 0.0247
4.1334 21750 0.016
4.1429 21800 0.0172
4.1524 21850 0.017
4.1619 21900 0.0204
4.1714 21950 0.0181
4.1809 22000 0.0178
4.1904 22050 0.0142
4.1999 22100 0.0096
4.2094 22150 0.0241
4.2189 22200 0.0145
4.2284 22250 0.0117
4.2379 22300 0.0144
4.2474 22350 0.0208
4.2569 22400 0.0286
4.2664 22450 0.0079
4.2759 22500 0.0154
4.2854 22550 0.0332
4.2949 22600 0.0223
4.3044 22650 0.0198
4.3139 22700 0.0177
4.3235 22750 0.0179
4.3330 22800 0.0301
4.3425 22850 0.0122
4.3520 22900 0.0211
4.3615 22950 0.0139
4.3710 23000 0.0097
4.3805 23050 0.0106
4.3900 23100 0.0171
4.3995 23150 0.0184
4.4090 23200 0.0226
4.4185 23250 0.0147
4.4280 23300 0.0102
4.4375 23350 0.0192
4.4470 23400 0.0198
4.4565 23450 0.0169
4.4660 23500 0.0231
4.4755 23550 0.0157
4.4850 23600 0.0101
4.4945 23650 0.0145
4.5040 23700 0.0174
4.5135 23750 0.0189
4.5230 23800 0.0094
4.5325 23850 0.0124
4.5420 23900 0.0136
4.5515 23950 0.0162
4.5610 24000 0.0056
4.5705 24050 0.0168
4.5800 24100 0.0172
4.5895 24150 0.0157
4.5990 24200 0.0245
4.6085 24250 0.0173
4.6180 24300 0.0154
4.6275 24350 0.0159
4.6370 24400 0.0104
4.6465 24450 0.0163
4.6560 24500 0.0189
4.6655 24550 0.0082
4.6750 24600 0.0156
4.6845 24650 0.0144
4.6940 24700 0.0309
4.7035 24750 0.0162
4.7130 24800 0.0148
4.7225 24850 0.0196
4.7320 24900 0.0168
4.7415 24950 0.0164
4.7510 25000 0.0178
4.7605 25050 0.015
4.7700 25100 0.0165
4.7796 25150 0.0175
4.7891 25200 0.011
4.7986 25250 0.0231
4.8081 25300 0.0182
4.8176 25350 0.0184
4.8271 25400 0.0144
4.8366 25450 0.0152
4.8461 25500 0.0153
4.8556 25550 0.0197
4.8651 25600 0.012
4.8746 25650 0.0166
4.8841 25700 0.0233
4.8936 25750 0.0178
4.9031 25800 0.0129
4.9126 25850 0.0193
4.9221 25900 0.0149
4.9316 25950 0.0122
4.9411 26000 0.0145
4.9506 26050 0.0149
4.9601 26100 0.0163
4.9696 26150 0.0262
4.9791 26200 0.0207
4.9886 26250 0.0177
4.9981 26300 0.0234

Framework Versions

  • Python: 3.10.13
  • Sentence Transformers: 3.0.1
  • Transformers: 4.39.3
  • PyTorch: 2.1.2
  • Accelerate: 0.29.3
  • Datasets: 2.18.0
  • Tokenizers: 0.15.2

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
Downloads last month
3
Safetensors
Model size
568M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for comet24082002/ft_bge_newLaw_OnlineContrastiveLoss_V2_5epochs

Base model

BAAI/bge-m3
Finetuned
(123)
this model