SentenceTransformer based on intfloat/multilingual-e5-large
This is a sentence-transformers model finetuned from intfloat/multilingual-e5-large. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: intfloat/multilingual-e5-large
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 1024 tokens
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("qminh369/bidv-dense_embedding")
# Run inference
sentences = [
'Làm thế nào để xem chi tiết về một giao dịch trong kỳ sao kê của thẻ tín dụng?',
'HƯỚNG DẪN SỬ DỤNG \nSMARTBANKING V. Dịch vụ thẻ / 8. Sao kê thẻ tín dụng 938. Sao kê thẻ tín dụng\nBước 3: Bước 4: \nNhấn nút Tra cứu. Màn hình hiển thị sao kê gồm 2 tab là Thông \ntin sao kê và Giao dịch trong kỳ \n• Tab Thông tin sao kê gồm số thẻ, kỳ sao kê, số dư đầu kỳ, s ố \ndư cuối kỳ, số tiền chi tiêu trong kỳ, ngày lập sao kê, số ti ền \nthanh toán tối thiểu… \n• Tab Giao dịch trong kỳ hiển thị các giao dịch đã phát sinh của \nthẻ trong kỳ sao kê đang truy vấn Nếu muốn xem chi tiết giao dịch, chọn vào giao dịch màn hìn h \nsẽ hiển thị các thông tin về giao dịch tương tự khi tra cứu tại \nchức năng Lịch sử giao dịch gồm số thẻ, số tiền giao dịch, l oại \ngiao dịch, ngày giao dịch, ngày quyết toán, nội dung...',
'HƯỚNG DẪN SỬ DỤNG \nSMARTBANKING III. Cài đặt / 1.3. Hủy danh bạ yêu thích 261.3. Hủy danh bạ yêu thích\nBước 1: Bước 2: Bước 3:\n• Chọn 1 danh bạ muốn hủy yêu thích \n• Nhấn chọn icon ở góc phải danh bạ đó.Nhấn chọn chức năng Bỏ yêu thích Danh bạ vừa hủy bỏ yêu thích s ẽ hiển thị về đúng \nloại chuyển khoản của danh bạ đó.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Training Details
Training Dataset
Unnamed Dataset
- Size: 1,061 training samples
- Columns:
sentence_0
andsentence_1
- Approximate statistics based on the first 1000 samples:
sentence_0 sentence_1 type string string details - min: 5 tokens
- mean: 24.43 tokens
- max: 56 tokens
- min: 3 tokens
- mean: 336.56 tokens
- max: 512 tokens
- Samples:
sentence_0 sentence_1 Làm thế nào để đủ điều kiện nhận khuyến mãi khi sử dụng thẻ tín dụng hạng Platinum?
PHỤ LỤC 01: THỂ LỆ CHƯƠNG TRÌNH KHUYẾN MẠI
KHI MỞ THẺ TDQT BIDV HẠNG PLATINUM VÀ THẺ BIDV JCB ULTIMATE
1.Thời gian khuyến mại: từ 15/11/2023 đến 31/12/2023 hoặc khi ngân sách h ết hạn,
tùy điều kiện nào đ ến trước
2.Loại thẻ áp dụng: thẻ tín dụng quốc tế BIDV h ạng Platinum, BIDV JCB Ultimate
3.Đối tượng khuyến mại:
-Đối với thẻ tín dụng hạng Platinum: Khách hàng ph át hành m ới thẻ chính c ác loại
thẻ tín dụng BIDV Platinum
-Đối với thẻ tín dụng JCB Ultimate: Khách hàng ph át hành m ới thẻ chính thẻ tín
dụng BIDV JCB Ultimate
4.Cơ chế khuyến mại:
-Đối với thẻ tín dụng hạng JCB: Tặng 2 tri ệu đồng (Tương đương phí thường niên
1,5 tri ệu đồng v à thêm 500.000 đồng) khi kh ách hàng chi tiêu từ 5 tri ệu đồng trong
vòng 30 ng ày kể từ ng ày mở thẻ.
-Đối với thẻ tín dụng hạng Platinum:
+Tặng 1 tri ệu đồng (tương đương phí thường niên 1 tri ệu đồng) khi KH chi tiêu từ
2 triệu đồng trong vòng 30 ng ày kể từ ng ày mở thẻ.
+Tặng thêm 500.000 đồng khi kh ách hàng chi tiêu thêm từ 1 tri ệu đồng trong
vòng 30 ng ày kể từ ng ày mở thẻ (theo Công văn 14644/BIDV-KHBL đang triển
khai).Khi nào thời gian khuyến mãi kết thúc?
PHỤ LỤC 01: THỂ LỆ CHƯƠNG TRÌNH KHUYẾN MẠI
KHI MỞ THẺ TDQT BIDV HẠNG PLATINUM VÀ THẺ BIDV JCB ULTIMATE
1.Thời gian khuyến mại: từ 15/11/2023 đến 31/12/2023 hoặc khi ngân sách h ết hạn,
tùy điều kiện nào đ ến trước
2.Loại thẻ áp dụng: thẻ tín dụng quốc tế BIDV h ạng Platinum, BIDV JCB Ultimate
3.Đối tượng khuyến mại:
-Đối với thẻ tín dụng hạng Platinum: Khách hàng ph át hành m ới thẻ chính c ác loại
thẻ tín dụng BIDV Platinum
-Đối với thẻ tín dụng JCB Ultimate: Khách hàng ph át hành m ới thẻ chính thẻ tín
dụng BIDV JCB Ultimate
4.Cơ chế khuyến mại:
-Đối với thẻ tín dụng hạng JCB: Tặng 2 tri ệu đồng (Tương đương phí thường niên
1,5 tri ệu đồng v à thêm 500.000 đồng) khi kh ách hàng chi tiêu từ 5 tri ệu đồng trong
vòng 30 ng ày kể từ ng ày mở thẻ.
-Đối với thẻ tín dụng hạng Platinum:
+Tặng 1 tri ệu đồng (tương đương phí thường niên 1 tri ệu đồng) khi KH chi tiêu từ
2 triệu đồng trong vòng 30 ng ày kể từ ng ày mở thẻ.
+Tặng thêm 500.000 đồng khi kh ách hàng chi tiêu thêm từ 1 tri ệu đồng trong
vòng 30 ng ày kể từ ng ày mở thẻ (theo Công văn 14644/BIDV-KHBL đang triển
khai).Ai là đối tượng được áp dụng khuyến mãi khi sử dụng thẻ tín dụng JCB Ultimate?
PHỤ LỤC 01: THỂ LỆ CHƯƠNG TRÌNH KHUYẾN MẠI
KHI MỞ THẺ TDQT BIDV HẠNG PLATINUM VÀ THẺ BIDV JCB ULTIMATE
1.Thời gian khuyến mại: từ 15/11/2023 đến 31/12/2023 hoặc khi ngân sách h ết hạn,
tùy điều kiện nào đ ến trước
2.Loại thẻ áp dụng: thẻ tín dụng quốc tế BIDV h ạng Platinum, BIDV JCB Ultimate
3.Đối tượng khuyến mại:
-Đối với thẻ tín dụng hạng Platinum: Khách hàng ph át hành m ới thẻ chính c ác loại
thẻ tín dụng BIDV Platinum
-Đối với thẻ tín dụng JCB Ultimate: Khách hàng ph át hành m ới thẻ chính thẻ tín
dụng BIDV JCB Ultimate
4.Cơ chế khuyến mại:
-Đối với thẻ tín dụng hạng JCB: Tặng 2 tri ệu đồng (Tương đương phí thường niên
1,5 tri ệu đồng v à thêm 500.000 đồng) khi kh ách hàng chi tiêu từ 5 tri ệu đồng trong
vòng 30 ng ày kể từ ng ày mở thẻ.
-Đối với thẻ tín dụng hạng Platinum:
+Tặng 1 tri ệu đồng (tương đương phí thường niên 1 tri ệu đồng) khi KH chi tiêu từ
2 triệu đồng trong vòng 30 ng ày kể từ ng ày mở thẻ.
+Tặng thêm 500.000 đồng khi kh ách hàng chi tiêu thêm từ 1 tri ệu đồng trong
vòng 30 ng ày kể từ ng ày mở thẻ (theo Công văn 14644/BIDV-KHBL đang triển
khai). - Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
per_device_train_batch_size
: 4per_device_eval_batch_size
: 4num_train_epochs
: 5multi_dataset_batch_sampler
: round_robin
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: noprediction_loss_only
: Trueper_device_train_batch_size
: 4per_device_eval_batch_size
: 4per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonelearning_rate
: 5e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1num_train_epochs
: 5max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.0warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falsebatch_sampler
: batch_samplermulti_dataset_batch_sampler
: round_robin
Training Logs
Epoch | Step | Training Loss |
---|---|---|
1.8797 | 500 | 0.2238 |
3.7594 | 1000 | 0.0365 |
Framework Versions
- Python: 3.10.12
- Sentence Transformers: 3.0.1
- Transformers: 4.41.2
- PyTorch: 2.3.0+cu121
- Accelerate: 0.31.0
- Datasets: 2.20.0
- Tokenizers: 0.19.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 8
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for qminh369/bidv-dense_embedding
Base model
intfloat/multilingual-e5-large