Edit model card

SentenceTransformer based on comet24082002/finetune_bge_simsce_V1

This is a sentence-transformers model finetuned from comet24082002/finetune_bge_simsce_V1. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: comet24082002/finetune_bge_simsce_V1
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 1024 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("comet24082002/ft_bge_newLaw_CachedMultipleNegativeRankingLoss_SimSCE_V1_5epochs")
# Run inference
sentences = [
    'Các tổ chức nào được phép kinh doanh ngoại hối ở Việt Nam?',
    '"Điều 2. Giải thích từ ngữ\nTại Thông tư này, các từ ngữ dưới đây được hiểu như sau:\n1. Tổ chức tín dụng được phép hoạt động ngoại hối là các ngân hàng, tổ chức tín dụng phi ngân hàng và chi nhánh ngân hàng nước ngoài được kinh doanh, cung ứng dịch vụ ngoại hối (sau đây gọi là tổ chức tín dụng được phép).\n..."',
    '"Điều 24. Mục đích sử dụng các quỹ\n...\n2. Mục đích sử dụng Quỹ:\n...\ne) Quỹ phúc lợi tập trung được trích lập từ lợi nhuận sau thuế của Công ty mẹ và nguồn đóng góp khác (nếu có). Quỹ phúc lợi được dùng để:\n- Đầu tư xây dựng hoặc sửa chữa các công trình phúc lợi của Công ty mẹ;\n- Chi cho các hoạt động phúc lợi của người lao động trong Công ty mẹ bao gồm cả người quản lý, kiểm soát viên của Công ty mẹ làm việc theo hợp đồng lao động và người quản lý, kiểm soát viên của Công ty mẹ do nhà nước bổ nhiệm;\n- Góp một phần vốn để đầu tư xây dựng các công trình phúc lợi chung trong ngành hoặc với các đơn vị khác theo hợp đồng;\n- Sử dụng một phần quỹ phúc lợi để trợ cấp khó khăn đột xuất cho những người lao động kể cả những trường hợp về hưu, về mất sức, lâm vào hoàn cảnh khó khăn, không nơi nương tựa hoặc làm công tác từ thiện xã hội;\n- Mức chi sử dụng quỹ do Tổng giám đốc Công ty mẹ quyết định được ghi trong quy chế quản lý, sử dụng quỹ của Công ty mẹ."',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

Unnamed Dataset

  • Size: 10,524 training samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 8 tokens
    • mean: 24.54 tokens
    • max: 47 tokens
    • min: 16 tokens
    • mean: 267.58 tokens
    • max: 512 tokens
  • Samples:
    anchor positive
    Hội viên Hội Văn nghệ dân gian Việt Nam có những quyền hạn gì? Quyền của hội viên
    1. Được cấp thẻ hội viên, được Hội giúp đỡ thực hiện các hoạt động sưu tầm, nghiên cứu văn hóa văn nghệ dân gian hợp pháp, được tham dự các giải thưởng hằng năm của Hội theo quy định của Điều lệ hội và quy định của pháp luật.
    2. Được tham gia thảo luận, quyết định các chủ trương công tác của Hội theo quy định của Hội; được tham dự Đại hội, ứng cử, đề cử, bầu cử vào các cơ quan lãnh đạo và Ban Kiểm tra Hội theo quy định của Hội; được giới thiệu hội viên mới.
    3. Được Hội bảo vệ quyền, lợi ích hợp pháp theo quy định của pháp luật, được hưởng các quyền lợi vật chất, tinh thần theo Quy chế về tổ chức và hoạt động của Hội. Được Hội cung cấp thông tin liên quan đến lĩnh vực hoạt động của Hội, được tham gia các hoạt động do Hội tổ chức.
    4. Có quyền phê bình, chất vấn các cá nhân lãnh đạo và các cơ quan, tổ chức chuyên môn của Hội và yêu cầu được trả lời những nội dung liên quan đến tổ chức, hoạt động của Hội theo quy định của Điều lệ Hội.
    5. Có quyền đề nghị bằng văn bản được ngừng sinh hoạt Hội theo quy định của Hội.
    6. Được khen thưởng theo quy định của Hội.
    7. Được ra khỏi Hội khi xét thấy không thể tiếp tục tham gia sinh hoạt Hội.
    Giáo viên muốn xét thăng hạng giáo viên trung học cơ sở hạng I có cần được cấp chứng chỉ bồi dưỡng hay không? Giáo viên trung học cơ sở hạng I - Mã số V.07.04.30
    ...
    3. Tiêu chuẩn về trình độ đào tạo, bồi dưỡng
    a) Có bằng thạc sĩ trở lên thuộc ngành đào tạo giáo viên đối với giáo viên trung học cơ sở hoặc có bằng thạc sĩ trở lên chuyên ngành phù hợp với môn học giảng dạy hoặc có bằng thạc sĩ quản lý giáo dục trở lên;
    b) Có chứng chỉ bồi dưỡng theo tiêu chuẩn chức danh nghề nghiệp giáo viên trung học cơ sở hạng I.
    Trong kinh doanh vận tải hành khách bằng xe buýt theo tuyến cố định, nhân viên xe buýt không giúp đỡ hành khách đi xe là người khuyết tật sẽ bị xử phạt thế nào? Xử phạt nhân viên phục vụ trên xe buýt, xe vận chuyển hành khách theo tuyến cố định, xe vận chuyển hành khách theo hợp đồng, xe vận chuyển khách du lịch vi phạm quy định về trật tự an toàn giao thông
    1. Phạt tiền từ 80.000 đồng đến 100.000 đồng đối với một trong các hành vi vi phạm sau đây:
    a) Không hỗ trợ, giúp đỡ hành khách đi xe là người cao tuổi, trẻ em không tự lên xuống xe được, người khuyết tật vận động hoặc khuyết tật thị giác;
    ...
  • Loss: CachedMultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 256
  • learning_rate: 2e-05
  • num_train_epochs: 5
  • warmup_ratio: 0.1

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 256
  • per_device_eval_batch_size: 8
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss
0.0476 2 1.5732
0.0952 4 1.6162
0.1429 6 1.3108
0.1905 8 1.0944
0.2381 10 0.8889
0.2857 12 0.7499
0.3333 14 0.601
0.3810 16 0.565
0.4286 18 0.4791
0.4762 20 0.4314
0.5238 22 0.4619
0.5714 24 0.3768
0.6190 26 0.4344
0.6667 28 0.3748
0.7143 30 0.3172
0.7619 32 0.3971
0.8095 34 0.2847
0.8571 36 0.3426
0.9048 38 0.4206
0.9524 40 0.276
1.0 42 0.1399
1.0476 44 0.2204
1.0952 46 0.2922
1.1429 48 0.2728
1.1905 50 0.2355
1.2381 52 0.2075
1.2857 54 0.2285
1.3333 56 0.2303
1.3810 58 0.2122
1.4286 60 0.2553
1.4762 62 0.2361
1.5238 64 0.2407
1.5714 66 0.2206
1.6190 68 0.2375
1.6667 70 0.2509
1.7143 72 0.1977
1.7619 74 0.2391
1.8095 76 0.1676
1.8571 78 0.3073
1.9048 80 0.2181
1.9524 82 0.265
2.0 84 0.1474
2.0476 86 0.1838
2.0952 88 0.2052
2.1429 90 0.1581
2.1905 92 0.1753
2.2381 94 0.1829
2.2857 96 0.2051
2.3333 98 0.2081
2.3810 100 0.194
2.4286 102 0.1139
2.4762 104 0.2349
2.5238 106 0.1427
2.5714 108 0.1654
2.6190 110 0.187
2.6667 112 0.1615
2.7143 114 0.1933
2.7619 116 0.1608
2.8095 118 0.1548
2.8571 120 0.1659
2.9048 122 0.1498
2.9524 124 0.1927
3.0 126 0.0566
3.0476 128 0.1493
3.0952 130 0.1435
3.1429 132 0.157
3.1905 134 0.1999
3.2381 136 0.1026
3.2857 138 0.1718
3.3333 140 0.1603
3.3810 142 0.1537
3.4286 144 0.1709
3.4762 146 0.1661
3.5238 148 0.1389
3.5714 150 0.1447
3.6190 152 0.1482
3.6667 154 0.1344
3.7143 156 0.1348
3.7619 158 0.1271
3.8095 160 0.1549
3.8571 162 0.124
3.9048 164 0.1555
3.9524 166 0.1215
4.0 168 0.1073
4.0476 170 0.1432
4.0952 172 0.133
4.1429 174 0.1253
4.1905 176 0.1433
4.2381 178 0.1671
4.2857 180 0.0884
4.3333 182 0.1326
4.3810 184 0.1318
4.4286 186 0.1445
4.4762 188 0.1168
4.5238 190 0.1106
4.5714 192 0.1235
4.6190 194 0.1252
4.6667 196 0.1265
4.7143 198 0.1885
4.7619 200 0.1168
4.8095 202 0.1035
4.8571 204 0.1822
4.9048 206 0.1227
4.9524 208 0.1332
5.0 210 0.0698

Framework Versions

  • Python: 3.10.13
  • Sentence Transformers: 3.0.1
  • Transformers: 4.41.2
  • PyTorch: 2.1.2
  • Accelerate: 0.30.1
  • Datasets: 2.19.2
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

CachedMultipleNegativesRankingLoss

@misc{gao2021scaling,
    title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup}, 
    author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
    year={2021},
    eprint={2101.06983},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}
Downloads last month
7
Safetensors
Model size
568M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for comet24082002/ft_bge_newLaw_CachedMultipleNegativeRankingLoss_SimSCE_V1_5epochs

Finetuned
(6)
this model