Edit model card

SentenceTransformer based on BAAI/bge-m3

This is a sentence-transformers model finetuned from BAAI/bge-m3. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: BAAI/bge-m3
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 1024 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("comet24082002/ft_bge_newLaw_SoftmaxLoss_V1_5epochs")
# Run inference
sentences = [
    'Quy định cụ thể về ngân hàng đất nông nghiệp như thế nào?',
    'Ngân hàng đất nông nghiệp\n1. Ngân hàng đất nông nghiệp là doanh nghiệp nhà nước do Chính phủ thành lập theo quy định của pháp luật về doanh nghiệp.\n2. Ngân hàng đất nông nghiệp có chức năng tạo lập quỹ đất nông nghiệp thông qua việc thuê quyền sử dụng đất, nhận chuyển nhượng quyền sử dụng đất, nhận ký gửi quyền sử dụng đất nông nghiệp; cho nhà đầu tư có nhu cầu thuê, thuê lại đất để sản xuất nông nghiệp.\n3. Hoạt động của Ngân hàng đất nông nghiệp không vì mục đích lợi nhuận, được Nhà nước bảo đảm khả năng thanh toán, được miễn thuế và các khoản phải nộp ngân sách nhà nước.\n4. Kinh phí hoạt động của Ngân hàng đất nông nghiệp được cấp từ ngân sách nhà nước; ứng từ Quỹ phát triển đất hoặc Quỹ đầu tư phát triển, quỹ tài chính khác được ủy thác; vay từ các tổ chức tín dụng được phép hoạt động tại Việt Nam; huy động vốn của các tổ chức, cá nhân và các nguồn khác theo quy định của pháp luật để thực hiện việc tạo lập quỹ đất quy định tại khoản 2 Điều này.\n5. Chính phủ quy định chi tiết Điều này.',
    'Thời điểm lập hóa đơn\n1. Thời điểm lập hóa đơn đối với bán hàng hóa (bao gồm cả bán tài sản nhà nước, tài sản tịch thu, sung quỹ nhà nước và bán hàng dự trữ quốc gia) là thời điểm chuyển giao quyền sở hữu hoặc quyền sử dụng hàng hóa cho người mua, không phân biệt đã thu được tiền hay chưa thu được tiền.\n2. Thời điểm lập hóa đơn đối với cung cấp dịch vụ là thời điểm hoàn thành việc cung cấp dịch vụ không phân biệt đã thu được tiền hay chưa thu được tiền. Trường hợp người cung cấp dịch vụ có thu tiền trước hoặc trong khi cung cấp dịch vụ thì thời điểm lập hóa đơn là thời điểm thu tiền (không bao gồm trường hợp thu tiền đặt cọc hoặc tạm ứng để đảm bảo thực hiện hợp đồng cung cấp các dịch vụ: kế toán, kiểm toán, tư vấn tài chính, thuế; thẩm định giá; khảo sát, thiết kế kỹ thuật; tư vấn giám sát; lập dự án đầu tư xây dựng).\n3. Trường hợp giao hàng nhiều lần hoặc bàn giao từng hạng mục, công đoạn dịch vụ thì mỗi lần giao hàng hoặc bàn giao đều phải lập hóa đơn cho khối lượng, giá trị hàng hóa, dịch vụ được giao tương ứng.\n...\nThời điểm xác định thuế GTGT\n1. Đối với bán hàng hóa là thời điểm chuyển giao quyền sở hữu hoặc quyền sử dụng hàng hóa cho người mua, không phân biệt đã thu được tiền hay chưa thu được tiền.\n...',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

Unnamed Dataset

  • Size: 10,524 training samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 label
    type string string int
    details
    • min: 8 tokens
    • mean: 24.39 tokens
    • max: 54 tokens
    • min: 23 tokens
    • mean: 284.45 tokens
    • max: 512 tokens
    • 0: ~50.00%
    • 1: ~50.00%
  • Samples:
    sentence1 sentence2 label
    Nguyên tắc để lựa chọn người thực hiện giám định tư pháp về hải quan trong lĩnh vực tài chính ra sao? Nguyên tắc lựa chọn, phân công người, tổ chức thực hiện giám định tư pháp trong lĩnh vực tài chính
    1. Việc lựa chọn giám định viên tư pháp, người giám định tư pháp theo vụ việc, Văn phòng giám định tư pháp, tổ chức giám định tư pháp theo vụ việc thực hiện giám định phải phù hợp với đối tượng, nội dung trưng cầu giám định, đáp ứng các quy định tại Luật Giám định tư pháp, hướng dẫn tại Thông tư này và các quy định khác của pháp luật có liên quan đến giám định tư pháp.
    2. Việc cử cán bộ, công chức là giám định viên tư pháp, người giám định tư pháp theo vụ việc; việc phân công người của Văn phòng giám định tư pháp, tổ chức giám định tư pháp theo vụ việc thực hiện giám định phải đúng thẩm quyền, trình tự, thủ tục theo quy định của pháp luật.
    1
    Tổ trưởng Tổ kiểm toán nhà nước cần đáp ứng những tiêu chuẩn gì? IV. THỐNG KÊ VIÊN TRÌNH ĐỘ CAO ĐẲNG
    ...
    3. Tiêu chuẩn về năng lực:
    - Nắm vững các kiến thức cơ bản về nghiệp vụ thống kê và có kỹ năng thành thạo để thực hiện tốt các nghiệp vụ chuyên môn công tác thống kê trong phạm vi được phân công;
    - Có phương pháp tuyên truyền, vận động nhân dân tham gia vào các hoạt động thống kê, có khả năng nắm bắt và áp dụng phương pháp, công nghệ tiên tiến trong quá trình thực hiện nhiệm vụ;
    - Có khả năng làm việc tập thể, phối hợp, giao tiếp ứng xử tốt với các tổ chức, cá nhân trong quá trình thực hiện nhiệm vụ về công tác thống kê;
    4. Tiêu chuẩn về trình độ:
    - Tốt nghiệp Cao đẳng chuyên ngành thống kê, nếu tốt nghiệp cao đẳng chuyên ngành khác thì phải qua khóa đào tạo nghiệp vụ thống kê theo chương trình quy định của Tổng cục Thống kê;
    - Tốt nghiệp khóa đào tạo, bồi dưỡng kiến thức quản lý hành chính nhà nước ngạch chuyên viên và lớp bồi dưỡng kiến thức nghiệp vụ công tác Thống kê;
    - Có trình độ B một trong năm ngoại ngữ thông dụng (Anh, Nga, Pháp, Trung, Đức);
    - Sử dụng thành thạo máy vi tính phục vụ cho công việc chuyên môn.
    0
    Phụ cấp ưu đãi đối với viên chức chuyên môn làm việc tại Trạm Thú y nơi có phụ cấp khu vực là 0,7 được chi trả khi nào? CÁCH TÍNH VÀ NGUỒN KINH PHÍ CHI TRẢ PHỤ CẤP
    1. Cách tính
    a) Phụ cấp ưu đãi theo nghề được tính theo mức lương ngạch, bậc hiện hưởng cộng phụ cấp chức vụ lãnh đạo, phụ cấp thâm niên vượt khung (nếu có), được xác định bằng công thức sau:
    Phụ cấp ưu đãi theo nghề được hưởng = Mức lương tối thiểu chung x Hệ số lương theo ngạch bậc hiện hưởng + hệ số phụ cấp chức vụ lãnh đạo (nếu có) + % (quy theo hệ số) phụ cấp thâm niên vượt khung (nếu có) x Mức phụ cấp ưu đãi theo nghề được hưởng
    b) Phụ cấp ưu đãi được trả cùng kỳ lương hàng tháng và không dùng để tính đóng, hưởng chế độ bảo hiểm xã hội, bảo hiểm y tế.
    c) Trường hợp một công chức kiểm lâm địa bàn phụ trách nhiều xã có mức phụ cấp ưu đãi khác nhau quy định tại khoản 1, mục II Thông tư này thì được hưởng mức phụ cấp ưu đãi cao nhất.
    d) Các đối tượng quy định tại khoản 1, mục I khi được điều động công tác đến địa bàn có mức phụ cấp cao hoặc thấp hơn mức phụ cấp đang hưởng thì được hưởng mức phụ cấp ưu đãi theo địa bàn công tác mới kể từ tháng sau liền kề với tháng có quyết định điều động công tác.
    ...
    1
  • Loss: SoftmaxLoss

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 4
  • learning_rate: 2e-05
  • num_train_epochs: 5
  • warmup_ratio: 0.1

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • prediction_loss_only: True
  • per_device_train_batch_size: 4
  • per_device_eval_batch_size: 8
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss
0.0190 50 0.6915
0.0380 100 0.691
0.0570 150 0.6923
0.0760 200 0.6911
0.0950 250 0.6912
0.1140 300 0.6906
0.1330 350 0.6865
0.1520 400 0.6889
0.1710 450 0.6847
0.1900 500 0.6831
0.2090 550 0.6755
0.2281 600 0.6871
0.2471 650 0.6858
0.2661 700 0.691
0.2851 750 0.6864
0.3041 800 0.6864
0.3231 850 0.6904
0.3421 900 0.6758
0.3611 950 0.679
0.3801 1000 0.6823
0.3991 1050 0.6835
0.4181 1100 0.6963
0.4371 1150 0.7012
0.4561 1200 0.6917
0.4751 1250 0.6969
0.4941 1300 0.6971
0.5131 1350 0.6989
0.5321 1400 0.6947
0.5511 1450 0.6943
0.5701 1500 0.6942
0.5891 1550 0.6955
0.6081 1600 0.6934
0.6271 1650 0.6883
0.6461 1700 0.6991
0.6651 1750 0.6915
0.6842 1800 0.6962
0.7032 1850 0.6938
0.7222 1900 0.6935
0.7412 1950 0.6928
0.7602 2000 0.6938
0.7792 2050 0.6915
0.7982 2100 0.6968
0.8172 2150 0.691
0.8362 2200 0.693
0.8552 2250 0.6956
0.8742 2300 0.6943
0.8932 2350 0.6929
0.9122 2400 0.6944
0.9312 2450 0.6943
0.9502 2500 0.6924
0.9692 2550 0.6936
0.9882 2600 0.6928
1.0072 2650 0.694
1.0262 2700 0.6935
1.0452 2750 0.6954
1.0642 2800 0.6928
1.0832 2850 0.6945
1.1022 2900 0.6931
1.1212 2950 0.694
1.1403 3000 0.6936
1.1593 3050 0.6939
1.1783 3100 0.6942
1.1973 3150 0.6937
1.2163 3200 0.6931
1.2353 3250 0.6933
1.2543 3300 0.6951
1.2733 3350 0.6935
1.2923 3400 0.6932
1.3113 3450 0.6942
1.3303 3500 0.6943
1.3493 3550 0.6942
1.3683 3600 0.6939
1.3873 3650 0.693
1.4063 3700 0.6916
1.4253 3750 0.6927
1.4443 3800 0.6944
1.4633 3850 0.6893
1.4823 3900 0.6971
1.5013 3950 0.6952
1.5203 4000 0.6929
1.5393 4050 0.6948
1.5583 4100 0.6934
1.5773 4150 0.6922
1.5964 4200 0.6944
1.6154 4250 0.692
1.6344 4300 0.6947
1.6534 4350 0.6944
1.6724 4400 0.6932
1.6914 4450 0.6935
1.7104 4500 0.6935
1.7294 4550 0.6924
1.7484 4600 0.6915
1.7674 4650 0.692
1.7864 4700 0.695
1.8054 4750 0.6948
1.8244 4800 0.6942
1.8434 4850 0.6916
1.8624 4900 0.6928
1.8814 4950 0.694
1.9004 5000 0.6938
1.9194 5050 0.6934
1.9384 5100 0.6934
1.9574 5150 0.695
1.9764 5200 0.6935
1.9954 5250 0.694
2.0144 5300 0.6928
2.0334 5350 0.6971
2.0525 5400 0.6939
2.0715 5450 0.6926
2.0905 5500 0.6922
2.1095 5550 0.6936
2.1285 5600 0.6903
2.1475 5650 0.6982
2.1665 5700 0.6919
2.1855 5750 0.6928
2.2045 5800 0.6921
2.2235 5850 0.6948
2.2425 5900 0.6932
2.2615 5950 0.6946
2.2805 6000 0.691
2.2995 6050 0.6928
2.3185 6100 0.6956
2.3375 6150 0.6934
2.3565 6200 0.6924
2.3755 6250 0.691
2.3945 6300 0.6898
2.4135 6350 0.6925
2.4325 6400 0.694
2.4515 6450 0.6944
2.4705 6500 0.6943
2.4895 6550 0.6939
2.5086 6600 0.6936
2.5276 6650 0.6939
2.5466 6700 0.6927
2.5656 6750 0.6927
2.5846 6800 0.6942
2.6036 6850 0.6937
2.6226 6900 0.6922
2.6416 6950 0.6941
2.6606 7000 0.6938
2.6796 7050 0.6941
2.6986 7100 0.6941
2.7176 7150 0.6936
2.7366 7200 0.6942
2.7556 7250 0.6923
2.7746 7300 0.6923
2.7936 7350 0.6922
2.8126 7400 0.6944
2.8316 7450 0.6933
2.8506 7500 0.6914
2.8696 7550 0.6939
2.8886 7600 0.6942
2.9076 7650 0.6935
2.9266 7700 0.6917
2.9456 7750 0.6918
2.9647 7800 0.6934
2.9837 7850 0.6937
3.0027 7900 0.6925
3.0217 7950 0.6938
3.0407 8000 0.691
3.0597 8050 0.6918
3.0787 8100 0.6923
3.0977 8150 0.6899
3.1167 8200 0.6946
3.1357 8250 0.6904
3.1547 8300 0.6967
3.1737 8350 0.6944
3.1927 8400 0.6937
3.2117 8450 0.6934
3.2307 8500 0.6937
3.2497 8550 0.6927
3.2687 8600 0.6932
3.2877 8650 0.6925
3.3067 8700 0.6944
3.3257 8750 0.6937
3.3447 8800 0.6936
3.3637 8850 0.6925
3.3827 8900 0.6942
3.4017 8950 0.6926
3.4208 9000 0.693
3.4398 9050 0.6941
3.4588 9100 0.6908
3.4778 9150 0.6929
3.4968 9200 0.6955
3.5158 9250 0.6935
3.5348 9300 0.6938
3.5538 9350 0.6932
3.5728 9400 0.6932
3.5918 9450 0.6928
3.6108 9500 0.6936
3.6298 9550 0.6934
3.6488 9600 0.6942
3.6678 9650 0.6931
3.6868 9700 0.6935
3.7058 9750 0.6931
3.7248 9800 0.6926
3.7438 9850 0.694
3.7628 9900 0.6932
3.7818 9950 0.6923
3.8008 10000 0.6937
3.8198 10050 0.6929
3.8388 10100 0.6917
3.8578 10150 0.6936
3.8769 10200 0.6938
3.8959 10250 0.6932
3.9149 10300 0.6917
3.9339 10350 0.696
3.9529 10400 0.6942
3.9719 10450 0.6935
3.9909 10500 0.6928
4.0099 10550 0.6929
4.0289 10600 0.6935
4.0479 10650 0.6934
4.0669 10700 0.6937
4.0859 10750 0.6929
4.1049 10800 0.6934
4.1239 10850 0.6936
4.1429 10900 0.6932
4.1619 10950 0.6931
4.1809 11000 0.6925
4.1999 11050 0.6928
4.2189 11100 0.6913
4.2379 11150 0.696
4.2569 11200 0.6921
4.2759 11250 0.6934
4.2949 11300 0.6937
4.3139 11350 0.6917
4.3330 11400 0.6949
4.3520 11450 0.6929
4.3710 11500 0.6938
4.3900 11550 0.6944
4.4090 11600 0.6935
4.4280 11650 0.6932
4.4470 11700 0.6937
4.4660 11750 0.693
4.4850 11800 0.6934
4.5040 11850 0.6932
4.5230 11900 0.6926
4.5420 11950 0.6928
4.5610 12000 0.6938
4.5800 12050 0.6925
4.5990 12100 0.6946
4.6180 12150 0.6937
4.6370 12200 0.6938
4.6560 12250 0.6931
4.6750 12300 0.6929
4.6940 12350 0.6932
4.7130 12400 0.694
4.7320 12450 0.6932
4.7510 12500 0.6933
4.7700 12550 0.6935
4.7891 12600 0.6931
4.8081 12650 0.6923
4.8271 12700 0.6936
4.8461 12750 0.6939
4.8651 12800 0.6935
4.8841 12850 0.693
4.9031 12900 0.6935
4.9221 12950 0.6934
4.9411 13000 0.6922
4.9601 13050 0.6932
4.9791 13100 0.6932
4.9981 13150 0.6935

Framework Versions

  • Python: 3.10.13
  • Sentence Transformers: 3.0.1
  • Transformers: 4.39.3
  • PyTorch: 2.1.2
  • Accelerate: 0.29.3
  • Datasets: 2.18.0
  • Tokenizers: 0.15.2

Citation

BibTeX

Sentence Transformers and SoftmaxLoss

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
Downloads last month
4
Safetensors
Model size
568M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for comet24082002/ft_bge_newLaw_SoftmaxLoss_V1_5epochs

Base model

BAAI/bge-m3
Finetuned
(123)
this model