nampham1106 commited on
Commit
97bc8e2
1 Parent(s): 983762b

Add new SentenceTransformer model.

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,819 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: Alibaba-NLP/gte-multilingual-base
3
+ datasets:
4
+ - tarudesu/ViHealthQA
5
+ language:
6
+ - vi
7
+ library_name: sentence-transformers
8
+ metrics:
9
+ - cosine_accuracy@1
10
+ - cosine_accuracy@3
11
+ - cosine_accuracy@5
12
+ - cosine_accuracy@10
13
+ - cosine_precision@1
14
+ - cosine_precision@3
15
+ - cosine_precision@5
16
+ - cosine_precision@10
17
+ - cosine_recall@1
18
+ - cosine_recall@3
19
+ - cosine_recall@5
20
+ - cosine_recall@10
21
+ - cosine_ndcg@10
22
+ - cosine_mrr@10
23
+ - cosine_map@100
24
+ - dot_accuracy@1
25
+ - dot_accuracy@3
26
+ - dot_accuracy@5
27
+ - dot_accuracy@10
28
+ - dot_precision@1
29
+ - dot_precision@3
30
+ - dot_precision@5
31
+ - dot_precision@10
32
+ - dot_recall@1
33
+ - dot_recall@3
34
+ - dot_recall@5
35
+ - dot_recall@10
36
+ - dot_ndcg@10
37
+ - dot_mrr@10
38
+ - dot_map@100
39
+ pipeline_tag: sentence-similarity
40
+ tags:
41
+ - sentence-transformers
42
+ - sentence-similarity
43
+ - feature-extraction
44
+ - generated_from_trainer
45
+ - dataset_size:7009
46
+ - loss:MultipleNegativesRankingLoss
47
+ widget:
48
+ - source_sentence: Hàng ngày, tôi uống thuốc huyết áp hỗ trợ điều trị viêm gan do
49
+ gan nhiễm mỡ thì có thể tiêm vaccine Covid-19 được không? Nếu tiêm vaccine có
50
+ phải ngưng uống thuốc gì không?
51
+ sentences:
52
+ - Nếu huyết áp sau điều trị ổn định ở mức huyết áp tối thiểu <90 mmHg và huyết áp
53
+ tối đa <140 mmHg thì Anh/Chị có thể tiêm tại các cơ sở đủ điều kiện tiêm chủng.
54
+ Nếu huyết áp của Anh/Chị ở mức cao hơn thì Anh/Chị cần tiêm vaccine tại bệnh viện
55
+ hoặc cơ sở đủ năng lực hồi sức cấp cứu ban đầu theo quy định của Bộ Y tế. Đồng
56
+ thời, khi tiêm vắc xin, Anh/Chị vẫn duy trì uống thuốc điều trị của mình và không
57
+ cần ngưng thuốc.
58
+ - Với tình trạng xét nghiệm của anh/chị thì bác sĩ có chẩn đoán là bệnh lý gì gây
59
+ nên tình trạng xét nghiệm máu có các chỉ số cao hơn và thấp hơn so với bình thường
60
+ không ạ? Anh/chị nên có kết quả chẩn đoán của bác sĩ khám bệnh để bác sĩ tư vấn
61
+ có tiêm phòng được/tạm hoãn/chống chỉ định tiêm phòng vaccine Covid-19.
62
+ - Những triệu chứng như bạn mô tả cũng thường xuất hiện ở người bị thiếu máu. Để
63
+ chẩn đoán chính xác có bị thiếu máu hay không và mức độ thiếu máu, bạn chỉ cần
64
+ xét nghiệm công thức máu. Xét nghiệm công thức máu cho kết quả nhanh, chi phí
65
+ hợp lý và mọi cơ sở y tế đều có thể làm được. Bạn nên tới cơ sở y tế để xét nghiệm
66
+ để rõ chẩn đoán.
67
+ - source_sentence: Tổn thương dây chằng điều trị như thế nào?
68
+ sentences:
69
+ - Dấu hiệu ban đỏ tím xuất hiện dạng mạch máu ở chân, tăng về mùa đông có thể là
70
+ triệu chứng của hội chứng Raynaud hoặc viêm mạch. Tuy nhiên, các triệu chứng mà
71
+ bạn mô tả không rõ ràng và đặc hiệu cho bệnh cụ thể nào, vì vậy việc nhận định
72
+ tổn thương da do nguyên nhân gì và lựa chọn phương pháp điều trị cần được dựa
73
+ trên đánh giá của bác sỹ chuyên môn Dị ứng miễn dịch.
74
+ - Đầu gối đứng lên ngồi xuống kêu lụp cụp và nặng dây chằng bên trong đầu gối phải.
75
+ Bạn cần đến khám với bác sĩ chuyên khoa để kiểm tra đánh giá thực tế tình trạng
76
+ tổn thương từ đó đưa ra hướng xử trí và tư vấn phù hợp nhất.
77
+ - Chụp cộng hưởng từ (MRI) không chống chỉ định với lứa tuổi của bạn. Trước khi
78
+ thực hiện chụp MRI, bệnh viện sẽ có những tư vấn an toàn cộng hưởng từ. Chống
79
+ chỉ định MRI chủ yếu ở các bệnh nhân có cấy ghép các bộ phận kim loại.
80
+ - source_sentence: Đã bị viêm gan B có thể tiêm phòng nữa không?
81
+ sentences:
82
+ - Viêm gan B là bệnh do virus HBV gây ra, nếu tình trạng nhiễm trở nên mãn tính
83
+ thì điều quan trọng cần làm là ngăn chặn và giảm thiểu tổn hại cho gan. Nếu được
84
+ điều trị đúng cách thì tiên lượng bệnh thường rất tốt. Tuy nhiên, không phải lúc
85
+ nào cũng phải điều trị ngay bằng các thuốc kháng virus mà cần theo dõi và xét
86
+ nghiệm đánh giá tình trạng gan cũng như cơ thể để việc điều trị đạt được hiệu
87
+ quả cao nhất. Việc cần làm của bạn là nên theo dõi và khám gan định kỳ, hạn chế
88
+ các gắng sức quá mức, bổ sung dinh dưỡng và hạn chế tiêu thụ các chất gây hại
89
+ cho gan. Nhiều người thắc mắc bị viêm gan B có tiêm phòng được không, trên thực
90
+ tế, nếu kết quả xét nghiệm đưa ra HBsAg dương tính đồng nghĩa với việc đã nhiễm
91
+ virus viêm gan B thì việc tiêm ngừa sẽ không còn hiệu quả. Vắc-xin phòng viêm
92
+ gan B chỉ có tác dụng với những người chưa từng mắc viêm gan B. Nếu người bệnh
93
+ xét nghiệm máu phát hiện đang nhiễm virus viêm gan B (HBsAg dương tính) thì nên
94
+ thực hiện tiếp các xét nghiệm chuyên sâu để theo dõi tình trạng và diễn biến của
95
+ bệnh, không cần tiêm phòng vắc-xin.
96
+ - Trường hợp bé rụng rốn nhưng chưa khô rốn bạn nên sát khuẩn cho bé bằng cồn trắng
97
+ 70 độ. Ngoài ra bạn nên chú ý vệ sinh rốn cho con sạch sẽ, tránh để rốn nhiễm
98
+ trùng.
99
+ - Bạn bị nhiễm Covid, đang cách ly tại nhà và có triệu chứng có đờm ở cổ họng, nghẹt
100
+ mũi thì bạn bị nhiễm Covid 19 mức độ nhẹ. Điều trị cần dùng thuốc điều trị triệu
101
+ chứng như súc họng bằng nước súc họng và uống thuốc long đờm, nhỏ thuốc nhỏ mũi
102
+ 2 - 3 lần/ ngày. Theo dõi nhiệt độ và tần số thở, spO2. Nếu thở nhanh hơn 20 lần/phút,
103
+ spO2 giảm hơn 93% cần liên hệ y tế địa phương để được hướng dẫn đến bệnh viện
104
+ theo dõi điều trị tiếp.
105
+ - source_sentence: Có tiền sử bệnh thận nếu mang thai ảnh hưởng gì không?
106
+ sentences:
107
+ - Ông bạn đã 85 tuổi, bị tai biến mạch máu não thể nhồi máu não (có cục máu đông
108
+ trong não) mới bị được 2 tuần nên việc điều trị còn nhiều rủi ro. Hiện giờ tốt
109
+ nhất ngoài việc dùng thuốc tại bệnh viện (hoặc tại nhà) cần kết hợp tập phục hồi
110
+ chức năng, hạn chế các yếu tố nguy cơ để tránh bị trở lại. Đây là việc làm đòi
111
+ hỏi sự kết hợp cả bác sĩ, bệnh nhân và sự hỗ trợ của người nhà. Sự kiên trì, động
112
+ viên khích lệ để bệnh nhân chịu khó tập luyện thì mới có thể thành công.
113
+ - Vợ bạn có tiền sử viêm cầu thận và đã khỏi cách đây 16 năm tuy nhiên sau khi khỏi
114
+ không biết có định kỳ khám kiểm tra chức năng thận và phân tích nước tiểu không.
115
+ Các trường hợp tổn thương thận mạn tính (bệnh thận mạn) đôi khi chỉ thể hiện thay
116
+ đổi ở phân tích nước tiểu mà không có triệu chứng lâm sàng. Các trường hợp bệnh
117
+ thận mạn tính này thường sẽ nặng lên hoặc thể hiện rõ hơn khi mang thai. Trường
118
+ hợp của vợ bạn nên được theo dõi bởi chuyên khoa thận trong suốt quá trình mang
119
+ thai và cả sau sinh nữa.
120
+ - Việc đang mang thai khiến cho bà mẹ có nguy cơ mắc Covid-19 cao nếu phơi nhiễm
121
+ với virus SARS-CoV-2. Sau khi tiêm vaccine Covid-19, ngoài việc theo dõi các phản
122
+ ứng của vaccine, cơ thể cần 2-3 tuần để đáp ứng với vaccine sinh được kháng thể
123
+ miễn dịch. Theo hướng dẫn mới nhất của Bộ Y tế phụ nữ đang mang thai cần hoãn
124
+ tiêm trong đợt này. Do đó tùy theo kế hoạch dự định của chị, chị có thể chủ động
125
+ cân nhắc lợi ích và nguy cơ. Nếu hoãn lại việc mang thai thì chị nên hoàn thành
126
+ phác đồ tiêm chủng vaccine Covid-19 AstraZeneca gồm 2 mũi trước khi mang thai
127
+ ít nhất một tháng.
128
+ - source_sentence: Tăng bạch cầu có ảnh hưởng gì tới viêm lợi không?
129
+ sentences:
130
+ - Bé nhà bạn ngoài hay bị nhiệt, viêm lợi ra thì còn có vấn đề sức khỏe nào khác
131
+ không?Cháu đã uống thuốc gì để điều trị nhiệt, viêm lợi ?Bạch cầu của cháu tăng
132
+ có thể do nhiều nguyên nhân, thường gặp là do viêm nhiễm hoặc do dùng một số loại
133
+ thuốc. Bạn nên đưa bé đến khám để được chẩn đoán tốt hơn.
134
+ - Bạch cầu mono là một loại bạch cầu có chức năng bảo vệ cơ thể thông qua cơ chế
135
+ thực bào. Khoảng tham chiếu ở bệnh viện đa khoa quốc tế Vinmec Times City là 0,3-0,9G/L.
136
+ Trong kết quả xét nghiệm bạch cầu mono 2,2 của em chưa rõ đơn vị tính là G/L hay
137
+ % nên bác sĩ không tư vấn rõ hơn cho em được, em tự đối chiếu nhé.
138
+ - Điều trị phẫu thuật và làm xét nghiệm mô bệnh học là phương pháp điều trị các
139
+ khối u tuyến nước bọt tốt nhất. Phẫu thuật khối u tuyến nước bọt mang tai phụ
140
+ thuộc vào loại, kích thước, tính chất khối u. Theo đó, phẫu thuật có thể tiến
141
+ hành loại bỏ một phần hoặc loại bỏ toàn bộ tuyến nước bọt và có hoặc không kèm
142
+ theo loại bỏ các hạch bạch huyết, dây thần kinh có liên quan.Bên cạnh đó còn có
143
+ phương pháp phẫu thuật tái tạo, nghĩa là sau khi ph��u thuật để loại bỏ khối u,
144
+ bác sĩ có thể đề nghị phẫu thuật tái tạo để sửa chữa khu vực. Trong quá trình
145
+ phẫu thuật tái tạo, bác sĩ phẫu thuật làm việc để sửa chữa cải thiện khả năng
146
+ nhai, nuốt, nói hoặc thở, có thể cần ghép da, mô hoặc dây thần kinh từ các bộ
147
+ phận khác của cơ thể để xây dựng lại các khu vực trong miệng, cổ họng hoặc hàm
148
+ của bệnh nhân.Vì không có thông tin về chẩn đoán của em trước mổ, tính chất (mềm
149
+ hay cứng, đau hay không đau, có xâm lấn hay không...) và kích thước khối u, phương
150
+ pháp phẫu thuật, thời gian phẫu thuật bao lâu rồi, em đã thăm khám lại với bác
151
+ sĩ mổ cho mình hay chưa. Nên chưa thể kết luận liệt dây thần kinh 9,10 sau mổ
152
+ u tuyến nước bọt có khả năng phục hồi khôngTuy nhiên, bác sĩ có một vài lời khuyên
153
+ dành cho em:Tái khám đúng lịch để theo dõi tiến triển của khối u cũng như khả
154
+ năng tái phát của khối u sau điều trị. Đồng thời bác sĩ sẽ đánh giá mức độ tổn
155
+ thương thần kinh, kết hợp khám chuyên khoa Vật lý trị liệu- Phục hồi chức năng
156
+ để tập luyện chức năng nói, nuốt.Xét nghiệm thường xuyên theo chỉ định của bác
157
+ sĩBổ sung dinh dưỡng và uống nhiều nước.
158
+ model-index:
159
+ - name: SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
160
+ results:
161
+ - task:
162
+ type: information-retrieval
163
+ name: Information Retrieval
164
+ dataset:
165
+ name: healthcare dev
166
+ type: healthcare-dev
167
+ metrics:
168
+ - type: cosine_accuracy@1
169
+ value: 0.6283987915407855
170
+ name: Cosine Accuracy@1
171
+ - type: cosine_accuracy@3
172
+ value: 0.7824773413897281
173
+ name: Cosine Accuracy@3
174
+ - type: cosine_accuracy@5
175
+ value: 0.8318227593152064
176
+ name: Cosine Accuracy@5
177
+ - type: cosine_accuracy@10
178
+ value: 0.8882175226586103
179
+ name: Cosine Accuracy@10
180
+ - type: cosine_precision@1
181
+ value: 0.6283987915407855
182
+ name: Cosine Precision@1
183
+ - type: cosine_precision@3
184
+ value: 0.2608257804632427
185
+ name: Cosine Precision@3
186
+ - type: cosine_precision@5
187
+ value: 0.16636455186304128
188
+ name: Cosine Precision@5
189
+ - type: cosine_precision@10
190
+ value: 0.08882175226586105
191
+ name: Cosine Precision@10
192
+ - type: cosine_recall@1
193
+ value: 0.6283987915407855
194
+ name: Cosine Recall@1
195
+ - type: cosine_recall@3
196
+ value: 0.7824773413897281
197
+ name: Cosine Recall@3
198
+ - type: cosine_recall@5
199
+ value: 0.8318227593152064
200
+ name: Cosine Recall@5
201
+ - type: cosine_recall@10
202
+ value: 0.8882175226586103
203
+ name: Cosine Recall@10
204
+ - type: cosine_ndcg@10
205
+ value: 0.7575658777946831
206
+ name: Cosine Ndcg@10
207
+ - type: cosine_mrr@10
208
+ value: 0.7157183618663984
209
+ name: Cosine Mrr@10
210
+ - type: cosine_map@100
211
+ value: 0.7207509988864388
212
+ name: Cosine Map@100
213
+ - type: dot_accuracy@1
214
+ value: 0.6283987915407855
215
+ name: Dot Accuracy@1
216
+ - type: dot_accuracy@3
217
+ value: 0.7824773413897281
218
+ name: Dot Accuracy@3
219
+ - type: dot_accuracy@5
220
+ value: 0.8318227593152064
221
+ name: Dot Accuracy@5
222
+ - type: dot_accuracy@10
223
+ value: 0.8882175226586103
224
+ name: Dot Accuracy@10
225
+ - type: dot_precision@1
226
+ value: 0.6283987915407855
227
+ name: Dot Precision@1
228
+ - type: dot_precision@3
229
+ value: 0.2608257804632427
230
+ name: Dot Precision@3
231
+ - type: dot_precision@5
232
+ value: 0.16636455186304128
233
+ name: Dot Precision@5
234
+ - type: dot_precision@10
235
+ value: 0.08882175226586105
236
+ name: Dot Precision@10
237
+ - type: dot_recall@1
238
+ value: 0.6283987915407855
239
+ name: Dot Recall@1
240
+ - type: dot_recall@3
241
+ value: 0.7824773413897281
242
+ name: Dot Recall@3
243
+ - type: dot_recall@5
244
+ value: 0.8318227593152064
245
+ name: Dot Recall@5
246
+ - type: dot_recall@10
247
+ value: 0.8882175226586103
248
+ name: Dot Recall@10
249
+ - type: dot_ndcg@10
250
+ value: 0.7575658777946831
251
+ name: Dot Ndcg@10
252
+ - type: dot_mrr@10
253
+ value: 0.7157183618663984
254
+ name: Dot Mrr@10
255
+ - type: dot_map@100
256
+ value: 0.7207509988864388
257
+ name: Dot Map@100
258
+ - type: cosine_accuracy@1
259
+ value: 0.5946348733233979
260
+ name: Cosine Accuracy@1
261
+ - type: cosine_accuracy@3
262
+ value: 0.7486338797814208
263
+ name: Cosine Accuracy@3
264
+ - type: cosine_accuracy@5
265
+ value: 0.8002980625931445
266
+ name: Cosine Accuracy@5
267
+ - type: cosine_accuracy@10
268
+ value: 0.8584202682563339
269
+ name: Cosine Accuracy@10
270
+ - type: cosine_precision@1
271
+ value: 0.5946348733233979
272
+ name: Cosine Precision@1
273
+ - type: cosine_precision@3
274
+ value: 0.2495446265938069
275
+ name: Cosine Precision@3
276
+ - type: cosine_precision@5
277
+ value: 0.16005961251862894
278
+ name: Cosine Precision@5
279
+ - type: cosine_precision@10
280
+ value: 0.08584202682563338
281
+ name: Cosine Precision@10
282
+ - type: cosine_recall@1
283
+ value: 0.5946348733233979
284
+ name: Cosine Recall@1
285
+ - type: cosine_recall@3
286
+ value: 0.7486338797814208
287
+ name: Cosine Recall@3
288
+ - type: cosine_recall@5
289
+ value: 0.8002980625931445
290
+ name: Cosine Recall@5
291
+ - type: cosine_recall@10
292
+ value: 0.8584202682563339
293
+ name: Cosine Recall@10
294
+ - type: cosine_ndcg@10
295
+ value: 0.7259573511690848
296
+ name: Cosine Ndcg@10
297
+ - type: cosine_mrr@10
298
+ value: 0.6836451951206047
299
+ name: Cosine Mrr@10
300
+ - type: cosine_map@100
301
+ value: 0.6887123590381591
302
+ name: Cosine Map@100
303
+ - type: dot_accuracy@1
304
+ value: 0.5946348733233979
305
+ name: Dot Accuracy@1
306
+ - type: dot_accuracy@3
307
+ value: 0.7486338797814208
308
+ name: Dot Accuracy@3
309
+ - type: dot_accuracy@5
310
+ value: 0.8002980625931445
311
+ name: Dot Accuracy@5
312
+ - type: dot_accuracy@10
313
+ value: 0.8584202682563339
314
+ name: Dot Accuracy@10
315
+ - type: dot_precision@1
316
+ value: 0.5946348733233979
317
+ name: Dot Precision@1
318
+ - type: dot_precision@3
319
+ value: 0.2495446265938069
320
+ name: Dot Precision@3
321
+ - type: dot_precision@5
322
+ value: 0.16005961251862894
323
+ name: Dot Precision@5
324
+ - type: dot_precision@10
325
+ value: 0.08584202682563338
326
+ name: Dot Precision@10
327
+ - type: dot_recall@1
328
+ value: 0.5946348733233979
329
+ name: Dot Recall@1
330
+ - type: dot_recall@3
331
+ value: 0.7486338797814208
332
+ name: Dot Recall@3
333
+ - type: dot_recall@5
334
+ value: 0.8002980625931445
335
+ name: Dot Recall@5
336
+ - type: dot_recall@10
337
+ value: 0.8584202682563339
338
+ name: Dot Recall@10
339
+ - type: dot_ndcg@10
340
+ value: 0.7259573511690848
341
+ name: Dot Ndcg@10
342
+ - type: dot_mrr@10
343
+ value: 0.6836451951206047
344
+ name: Dot Mrr@10
345
+ - type: dot_map@100
346
+ value: 0.6887123590381591
347
+ name: Dot Map@100
348
+ ---
349
+
350
+ # SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
351
+
352
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Alibaba-NLP/gte-multilingual-base](https://huggingface.co/Alibaba-NLP/gte-multilingual-base) on the [vi_health_qa](https://huggingface.co/datasets/tarudesu/ViHealthQA) dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
353
+
354
+ ## Model Details
355
+
356
+ ### Model Description
357
+ - **Model Type:** Sentence Transformer
358
+ - **Base model:** [Alibaba-NLP/gte-multilingual-base](https://huggingface.co/Alibaba-NLP/gte-multilingual-base) <!-- at revision f7d567e1f2493bb0df9413965d144de9f15e7bab -->
359
+ - **Maximum Sequence Length:** 8192 tokens
360
+ - **Output Dimensionality:** 768 tokens
361
+ - **Similarity Function:** Cosine Similarity
362
+ - **Training Dataset:**
363
+ - [vi_health_qa](https://huggingface.co/datasets/tarudesu/ViHealthQA)
364
+ - **Language:** vi
365
+ <!-- - **License:** Unknown -->
366
+
367
+ ### Model Sources
368
+
369
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
370
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
371
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
372
+
373
+ ### Full Model Architecture
374
+
375
+ ```
376
+ SentenceTransformer(
377
+ (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: NewModel
378
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
379
+ (2): Normalize()
380
+ )
381
+ ```
382
+
383
+ ## Usage
384
+
385
+ ### Direct Usage (Sentence Transformers)
386
+
387
+ First install the Sentence Transformers library:
388
+
389
+ ```bash
390
+ pip install -U sentence-transformers
391
+ ```
392
+
393
+ Then you can load this model and run inference.
394
+ ```python
395
+ from sentence_transformers import SentenceTransformer
396
+
397
+ # Download from the 🤗 Hub
398
+ model = SentenceTransformer("multilingual-e5-base-finetuned")
399
+ # Run inference
400
+ sentences = [
401
+ 'Tăng bạch cầu có ảnh hưởng gì tới viêm lợi không?',
402
+ 'Bé nhà bạn ngoài hay bị nhiệt, viêm lợi ra thì còn có vấn đề sức khỏe nào khác không?Cháu đã uống thuốc gì để điều trị nhiệt, viêm lợi ?Bạch cầu của cháu tăng có thể do nhiều nguyên nhân, thường gặp là do viêm nhiễm hoặc do dùng một số loại thuốc. Bạn nên đưa bé đến khám để được chẩn đoán tốt hơn.',
403
+ 'Điều trị phẫu thuật và làm xét nghiệm mô bệnh học là phương pháp điều trị các khối u tuyến nước bọt tốt nhất. Phẫu thuật khối u tuyến nước bọt mang tai phụ thuộc vào loại, kích thước, tính chất khối u. Theo đó, phẫu thuật có thể tiến hành loại bỏ một phần hoặc loại bỏ toàn bộ tuyến nước bọt và có hoặc không kèm theo loại bỏ các hạch bạch huyết, dây thần kinh có liên quan.Bên cạnh đó còn có phương pháp phẫu thuật tái tạo, nghĩa là sau khi phẫu thuật để loại bỏ khối u, bác sĩ có thể đề nghị phẫu thuật tái tạo để sửa chữa khu vực. Trong quá trình phẫu thuật tái tạo, bác sĩ phẫu thuật làm việc để sửa chữa cải thiện khả năng nhai, nuốt, nói hoặc thở, có thể cần ghép da, mô hoặc dây thần kinh từ các bộ phận khác của cơ thể để xây dựng lại các khu vực trong miệng, cổ họng hoặc hàm của bệnh nhân.Vì không có thông tin về chẩn đoán của em trước mổ, tính chất (mềm hay cứng, đau hay không đau, có xâm lấn hay không...) và kích thước khối u, phương pháp phẫu thuật, thời gian phẫu thuật bao lâu rồi, em đã thăm khám lại với bác sĩ mổ cho mình hay chưa. Nên chưa thể kết luận liệt dây thần kinh 9,10 sau mổ u tuyến nước bọt có khả năng phục hồi khôngTuy nhiên, bác sĩ có một vài lời khuyên dành cho em:Tái khám đúng lịch để theo dõi tiến triển của khối u cũng như khả năng tái phát của khối u sau điều trị. Đồng thời bác sĩ sẽ đánh giá mức độ tổn thương thần kinh, kết hợp khám chuyên khoa Vật lý trị liệu- Phục hồi chức năng để tập luyện chức năng nói, nuốt.Xét nghiệm thường xuyên theo chỉ định của bác sĩBổ sung dinh dưỡng và uống nhiều nước.',
404
+ ]
405
+ embeddings = model.encode(sentences)
406
+ print(embeddings.shape)
407
+ # [3, 768]
408
+
409
+ # Get the similarity scores for the embeddings
410
+ similarities = model.similarity(embeddings, embeddings)
411
+ print(similarities.shape)
412
+ # [3, 3]
413
+ ```
414
+
415
+ <!--
416
+ ### Direct Usage (Transformers)
417
+
418
+ <details><summary>Click to see the direct usage in Transformers</summary>
419
+
420
+ </details>
421
+ -->
422
+
423
+ <!--
424
+ ### Downstream Usage (Sentence Transformers)
425
+
426
+ You can finetune this model on your own dataset.
427
+
428
+ <details><summary>Click to expand</summary>
429
+
430
+ </details>
431
+ -->
432
+
433
+ <!--
434
+ ### Out-of-Scope Use
435
+
436
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
437
+ -->
438
+
439
+ ## Evaluation
440
+
441
+ ### Metrics
442
+
443
+ #### Information Retrieval
444
+ * Dataset: `healthcare-dev`
445
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
446
+
447
+ | Metric | Value |
448
+ |:--------------------|:-----------|
449
+ | cosine_accuracy@1 | 0.6284 |
450
+ | cosine_accuracy@3 | 0.7825 |
451
+ | cosine_accuracy@5 | 0.8318 |
452
+ | cosine_accuracy@10 | 0.8882 |
453
+ | cosine_precision@1 | 0.6284 |
454
+ | cosine_precision@3 | 0.2608 |
455
+ | cosine_precision@5 | 0.1664 |
456
+ | cosine_precision@10 | 0.0888 |
457
+ | cosine_recall@1 | 0.6284 |
458
+ | cosine_recall@3 | 0.7825 |
459
+ | cosine_recall@5 | 0.8318 |
460
+ | cosine_recall@10 | 0.8882 |
461
+ | cosine_ndcg@10 | 0.7576 |
462
+ | cosine_mrr@10 | 0.7157 |
463
+ | **cosine_map@100** | **0.7208** |
464
+ | dot_accuracy@1 | 0.6284 |
465
+ | dot_accuracy@3 | 0.7825 |
466
+ | dot_accuracy@5 | 0.8318 |
467
+ | dot_accuracy@10 | 0.8882 |
468
+ | dot_precision@1 | 0.6284 |
469
+ | dot_precision@3 | 0.2608 |
470
+ | dot_precision@5 | 0.1664 |
471
+ | dot_precision@10 | 0.0888 |
472
+ | dot_recall@1 | 0.6284 |
473
+ | dot_recall@3 | 0.7825 |
474
+ | dot_recall@5 | 0.8318 |
475
+ | dot_recall@10 | 0.8882 |
476
+ | dot_ndcg@10 | 0.7576 |
477
+ | dot_mrr@10 | 0.7157 |
478
+ | dot_map@100 | 0.7208 |
479
+
480
+ #### Information Retrieval
481
+ * Dataset: `healthcare-dev`
482
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
483
+
484
+ | Metric | Value |
485
+ |:--------------------|:-----------|
486
+ | cosine_accuracy@1 | 0.5946 |
487
+ | cosine_accuracy@3 | 0.7486 |
488
+ | cosine_accuracy@5 | 0.8003 |
489
+ | cosine_accuracy@10 | 0.8584 |
490
+ | cosine_precision@1 | 0.5946 |
491
+ | cosine_precision@3 | 0.2495 |
492
+ | cosine_precision@5 | 0.1601 |
493
+ | cosine_precision@10 | 0.0858 |
494
+ | cosine_recall@1 | 0.5946 |
495
+ | cosine_recall@3 | 0.7486 |
496
+ | cosine_recall@5 | 0.8003 |
497
+ | cosine_recall@10 | 0.8584 |
498
+ | cosine_ndcg@10 | 0.726 |
499
+ | cosine_mrr@10 | 0.6836 |
500
+ | **cosine_map@100** | **0.6887** |
501
+ | dot_accuracy@1 | 0.5946 |
502
+ | dot_accuracy@3 | 0.7486 |
503
+ | dot_accuracy@5 | 0.8003 |
504
+ | dot_accuracy@10 | 0.8584 |
505
+ | dot_precision@1 | 0.5946 |
506
+ | dot_precision@3 | 0.2495 |
507
+ | dot_precision@5 | 0.1601 |
508
+ | dot_precision@10 | 0.0858 |
509
+ | dot_recall@1 | 0.5946 |
510
+ | dot_recall@3 | 0.7486 |
511
+ | dot_recall@5 | 0.8003 |
512
+ | dot_recall@10 | 0.8584 |
513
+ | dot_ndcg@10 | 0.726 |
514
+ | dot_mrr@10 | 0.6836 |
515
+ | dot_map@100 | 0.6887 |
516
+
517
+ <!--
518
+ ## Bias, Risks and Limitations
519
+
520
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
521
+ -->
522
+
523
+ <!--
524
+ ### Recommendations
525
+
526
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
527
+ -->
528
+
529
+ ## Training Details
530
+
531
+ ### Training Dataset
532
+
533
+ #### vi_health_qa
534
+
535
+ * Dataset: [vi_health_qa](https://huggingface.co/datasets/tarudesu/ViHealthQA) at [d90a62d](https://huggingface.co/datasets/tarudesu/ViHealthQA/tree/d90a62deedfc822a15de3f35535bb41474e4d3f4)
536
+ * Size: 7,009 training samples
537
+ * Columns: <code>question</code> and <code>answer</code>
538
+ * Approximate statistics based on the first 1000 samples:
539
+ | | question | answer |
540
+ |:--------|:-----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
541
+ | type | string | string |
542
+ | details | <ul><li>min: 8 tokens</li><li>mean: 30.36 tokens</li><li>max: 325 tokens</li></ul> | <ul><li>min: 12 tokens</li><li>mean: 131.93 tokens</li><li>max: 1249 tokens</li></ul> |
543
+ * Samples:
544
+ | question | answer |
545
+ |:------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
546
+ | <code>Đang chích ngừa viêm gan B có chích ngừa Covid-19 được không?</code> | <code>Nếu anh/chị đang tiêm ngừa vaccine phòng bệnh viêm gan B, anh/chị vẫn có thể tiêm phòng vaccine phòng Covid-19, tuy nhiên vaccine Covid-19 phải được tiêm cách trước và sau mũi vaccine viêm gan B tối thiểu là 14 ngày.</code> |
547
+ | <code>Đau đầu, căng thẳng do công việc, suy giảm trí nhớ khoảng gần một năm phải làm sao?</code> | <code>Tình trạng đau đầu theo bạn mô tả thì chưa rõ. Vì thế, bác sĩ khuyến khích bạn đến cơ sở y tế hoặc bệnh viện thuộc Hệ thống Y tế Vinmec để khám chuyên khoa Thần kinh. Nếu đau đầu thông thường thì cần nghỉ ngơi thư giãn sẽ đỡ, còn nếu có những yếu tố khác thì cần phải khám kỹ, xét nghiệm cận lâm sàng để chẩn đoán chính xác hơn và có hướng điều trị phù hợp.</code> |
548
+ | <code>Đặt lưu lượng khí hệ thống Jackson-Rees thấp hơn quy định khi sử dụng gây mê cho trẻ em sẽ gây hậu quả gì?</code> | <code>Hệ thống Jackson – Rees dùng khi gây mê để tránh hít lại khí thở ra cần đặt lưu lượng khí mới gấp 2 – 2,5 lần thông khí phút của bệnh nhân. Nếu cài đặt thấp hơn mức này sẽ gây ra hiện tượng ưu thán hay còn gọi là thừa khí CO2 biểu hiện kích thích vã mồ hôi, tăng huyết áp, nguy hiểm hơn là bệnh nhân tím tái, trụy tim mạch, thậm chí là tử vong.Nếu còn thắc mắc, bạn có thể liên hệ hoặc đến trực tiếp một trong các bệnh viện thuộc Hệ thống Y tế Vinmec trên toàn quốc để được bác sĩ chuyên môn tư vấn cụ thể hơn.Cảm ơn bạn đã tin tưởng và đặt câu hỏi tới Vinmec. Trân trọng!</code> |
549
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
550
+ ```json
551
+ {
552
+ "scale": 20.0,
553
+ "similarity_fct": "cos_sim"
554
+ }
555
+ ```
556
+
557
+ ### Evaluation Dataset
558
+
559
+ #### vi_health_qa
560
+
561
+ * Dataset: [vi_health_qa](https://huggingface.co/datasets/tarudesu/ViHealthQA) at [d90a62d](https://huggingface.co/datasets/tarudesu/ViHealthQA/tree/d90a62deedfc822a15de3f35535bb41474e4d3f4)
562
+ * Size: 993 evaluation samples
563
+ * Columns: <code>question</code> and <code>answer</code>
564
+ * Approximate statistics based on the first 993 samples:
565
+ | | question | answer |
566
+ |:--------|:-----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
567
+ | type | string | string |
568
+ | details | <ul><li>min: 9 tokens</li><li>mean: 30.03 tokens</li><li>max: 267 tokens</li></ul> | <ul><li>min: 13 tokens</li><li>mean: 133.86 tokens</li><li>max: 1103 tokens</li></ul> |
569
+ * Samples:
570
+ | question | answer |
571
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
572
+ | <code>Em nghe nói kích trứng nhiều lần sẽ làm rối loạn nội tiết và tăng khả năng ung thư buồng trứng có phải không? Vì em có dự trữ buồng trứng rất thấp, được chỉ định gom trứng nên nghe thông tin trên em rất lo lắng.</code> | <code>Theo thông tin chị cung cấp thì chưa đủ dữ liệu để kết luận là kích trứng gây rối loạn nội tiết hay ung thư, tuy nhiên những điều này vẫn có thể ảnh hưởng về sau.</code> |
573
+ | <code>Tại sao tỷ lệ dịch chuyển tinh trùng thấp?</code> | <code> Nguyên nhân dẫn đến tỷ lệ dịch chuyển tinh trùng thấp là do tinh trùng tổn thương đuôi, tinh trùng không hoạt động, tinh trùng chết. Bạn nên thăm khám bác sĩ chuyên khoa và có phương pháp điều trị thích hợp, tránh ảnh hưởng đến khả năng sinh sản. Nếu được bạn nên giảm thức đêm. Thức đêm cũng là nguyên nhân ảnh hưởng đến chất lượng và số lượng tinh trùng. Ngoài ra, bạn cần ăn uống các loại thực phẩm tươi sạch bổ dưỡng, cần bỏ rượu, thuốc lá và các chất kích thích khác như rượu, cần sa, amphetamin... nếu hai vợ chồng đang cố gắng thụ thai. Ngoài ra, cần tập luyện thể dục đều đặn để nâng cao thể lực, duy trì cân nặng ở mức phù hợp, giảm cân nếu đang thừa cân và hạn chế tiếp xúc với điện thoại di động.</code> |
574
+ | <code>Ngồi dậy hay nằm xuống đều bị chóng mặt có phải bị tổn thương dây thần kinh do phẫu thuật không?</code> | <code>Xương đòn khi mổ rất lâu liền xương, 3 tuần chưa thể có cal xương dù là cal non, Để đánh giá có tổn thương thần kinh hay không cần khám về lâm sàng, bạn có thể đến khám tại bệnh viện thuộc Hệ thống Y tế Vinmec trên toàn quốc để bác sĩ tư vấn rõ hơn và đưa ra hướng điều trị phù hợp nhất.</code> |
575
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
576
+ ```json
577
+ {
578
+ "scale": 20.0,
579
+ "similarity_fct": "cos_sim"
580
+ }
581
+ ```
582
+
583
+ ### Training Hyperparameters
584
+ #### Non-Default Hyperparameters
585
+
586
+ - `eval_strategy`: steps
587
+ - `per_device_train_batch_size`: 6
588
+ - `per_device_eval_batch_size`: 6
589
+ - `learning_rate`: 3.0692519709098972e-06
590
+ - `num_train_epochs`: 4
591
+ - `warmup_ratio`: 0.04970511867965379
592
+ - `fp16`: True
593
+ - `batch_sampler`: no_duplicates
594
+
595
+ #### All Hyperparameters
596
+ <details><summary>Click to expand</summary>
597
+
598
+ - `overwrite_output_dir`: False
599
+ - `do_predict`: False
600
+ - `eval_strategy`: steps
601
+ - `prediction_loss_only`: True
602
+ - `per_device_train_batch_size`: 6
603
+ - `per_device_eval_batch_size`: 6
604
+ - `per_gpu_train_batch_size`: None
605
+ - `per_gpu_eval_batch_size`: None
606
+ - `gradient_accumulation_steps`: 1
607
+ - `eval_accumulation_steps`: None
608
+ - `torch_empty_cache_steps`: None
609
+ - `learning_rate`: 3.0692519709098972e-06
610
+ - `weight_decay`: 0.0
611
+ - `adam_beta1`: 0.9
612
+ - `adam_beta2`: 0.999
613
+ - `adam_epsilon`: 1e-08
614
+ - `max_grad_norm`: 1.0
615
+ - `num_train_epochs`: 4
616
+ - `max_steps`: -1
617
+ - `lr_scheduler_type`: linear
618
+ - `lr_scheduler_kwargs`: {}
619
+ - `warmup_ratio`: 0.04970511867965379
620
+ - `warmup_steps`: 0
621
+ - `log_level`: passive
622
+ - `log_level_replica`: warning
623
+ - `log_on_each_node`: True
624
+ - `logging_nan_inf_filter`: True
625
+ - `save_safetensors`: True
626
+ - `save_on_each_node`: False
627
+ - `save_only_model`: False
628
+ - `restore_callback_states_from_checkpoint`: False
629
+ - `no_cuda`: False
630
+ - `use_cpu`: False
631
+ - `use_mps_device`: False
632
+ - `seed`: 42
633
+ - `data_seed`: None
634
+ - `jit_mode_eval`: False
635
+ - `use_ipex`: False
636
+ - `bf16`: False
637
+ - `fp16`: True
638
+ - `fp16_opt_level`: O1
639
+ - `half_precision_backend`: auto
640
+ - `bf16_full_eval`: False
641
+ - `fp16_full_eval`: False
642
+ - `tf32`: None
643
+ - `local_rank`: 0
644
+ - `ddp_backend`: None
645
+ - `tpu_num_cores`: None
646
+ - `tpu_metrics_debug`: False
647
+ - `debug`: []
648
+ - `dataloader_drop_last`: False
649
+ - `dataloader_num_workers`: 0
650
+ - `dataloader_prefetch_factor`: None
651
+ - `past_index`: -1
652
+ - `disable_tqdm`: False
653
+ - `remove_unused_columns`: True
654
+ - `label_names`: None
655
+ - `load_best_model_at_end`: False
656
+ - `ignore_data_skip`: False
657
+ - `fsdp`: []
658
+ - `fsdp_min_num_params`: 0
659
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
660
+ - `fsdp_transformer_layer_cls_to_wrap`: None
661
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
662
+ - `deepspeed`: None
663
+ - `label_smoothing_factor`: 0.0
664
+ - `optim`: adamw_torch
665
+ - `optim_args`: None
666
+ - `adafactor`: False
667
+ - `group_by_length`: False
668
+ - `length_column_name`: length
669
+ - `ddp_find_unused_parameters`: None
670
+ - `ddp_bucket_cap_mb`: None
671
+ - `ddp_broadcast_buffers`: False
672
+ - `dataloader_pin_memory`: True
673
+ - `dataloader_persistent_workers`: False
674
+ - `skip_memory_metrics`: True
675
+ - `use_legacy_prediction_loop`: False
676
+ - `push_to_hub`: False
677
+ - `resume_from_checkpoint`: None
678
+ - `hub_model_id`: None
679
+ - `hub_strategy`: every_save
680
+ - `hub_private_repo`: False
681
+ - `hub_always_push`: False
682
+ - `gradient_checkpointing`: False
683
+ - `gradient_checkpointing_kwargs`: None
684
+ - `include_inputs_for_metrics`: False
685
+ - `eval_do_concat_batches`: True
686
+ - `fp16_backend`: auto
687
+ - `push_to_hub_model_id`: None
688
+ - `push_to_hub_organization`: None
689
+ - `mp_parameters`:
690
+ - `auto_find_batch_size`: False
691
+ - `full_determinism`: False
692
+ - `torchdynamo`: None
693
+ - `ray_scope`: last
694
+ - `ddp_timeout`: 1800
695
+ - `torch_compile`: False
696
+ - `torch_compile_backend`: None
697
+ - `torch_compile_mode`: None
698
+ - `dispatch_batches`: None
699
+ - `split_batches`: None
700
+ - `include_tokens_per_second`: False
701
+ - `include_num_input_tokens_seen`: False
702
+ - `neftune_noise_alpha`: None
703
+ - `optim_target_modules`: None
704
+ - `batch_eval_metrics`: False
705
+ - `eval_on_start`: False
706
+ - `eval_use_gather_object`: False
707
+ - `batch_sampler`: no_duplicates
708
+ - `multi_dataset_batch_sampler`: proportional
709
+
710
+ </details>
711
+
712
+ ### Training Logs
713
+ | Epoch | Step | Training Loss | loss | healthcare-dev_cosine_map@100 |
714
+ |:------:|:----:|:-------------:|:------:|:-----------------------------:|
715
+ | 0 | 0 | - | - | 0.6555 |
716
+ | 0.0855 | 100 | 0.1744 | 0.1599 | 0.6672 |
717
+ | 0.1711 | 200 | 0.1618 | 0.1178 | 0.6927 |
718
+ | 0.2566 | 300 | 0.1219 | 0.0920 | 0.7032 |
719
+ | 0.3422 | 400 | 0.0778 | 0.0807 | 0.7083 |
720
+ | 0.4277 | 500 | 0.0993 | 0.0739 | 0.7106 |
721
+ | 0.5133 | 600 | 0.0821 | 0.0695 | 0.7149 |
722
+ | 0.5988 | 700 | 0.0632 | 0.0685 | 0.7125 |
723
+ | 0.6843 | 800 | 0.0653 | 0.0669 | 0.7129 |
724
+ | 0.7699 | 900 | 0.0962 | 0.0655 | 0.7185 |
725
+ | 0.8554 | 1000 | 0.0395 | 0.0648 | 0.7170 |
726
+ | 0.9410 | 1100 | 0.0784 | 0.0628 | 0.7154 |
727
+ | 1.0265 | 1200 | 0.0791 | 0.0627 | 0.7180 |
728
+ | 1.1121 | 1300 | 0.063 | 0.0618 | 0.7179 |
729
+ | 1.1976 | 1400 | 0.0811 | 0.0606 | 0.7163 |
730
+ | 1.2831 | 1500 | 0.0425 | 0.0610 | 0.7179 |
731
+ | 1.3687 | 1600 | 0.028 | 0.0603 | 0.7205 |
732
+ | 1.4542 | 1700 | 0.0761 | 0.0596 | 0.7202 |
733
+ | 1.5398 | 1800 | 0.0419 | 0.0591 | 0.7190 |
734
+ | 1.6253 | 1900 | 0.0394 | 0.0589 | 0.7214 |
735
+ | 1.7109 | 2000 | 0.0623 | 0.0593 | 0.7235 |
736
+ | 1.7964 | 2100 | 0.0683 | 0.0594 | 0.7214 |
737
+ | 1.8820 | 2200 | 0.0316 | 0.0590 | 0.7212 |
738
+ | 1.9675 | 2300 | 0.0681 | 0.0579 | 0.7246 |
739
+ | 2.0530 | 2400 | 0.0366 | 0.0579 | 0.7243 |
740
+ | 2.1386 | 2500 | 0.0315 | 0.0579 | 0.7247 |
741
+ | 2.2241 | 2600 | 0.0633 | 0.0578 | 0.7247 |
742
+ | 2.3097 | 2700 | 0.0278 | 0.0580 | 0.7247 |
743
+ | 2.3952 | 2800 | 0.029 | 0.0582 | 0.7236 |
744
+ | 2.4808 | 2900 | 0.0472 | 0.0577 | 0.7206 |
745
+ | 2.5663 | 3000 | 0.0307 | 0.0575 | 0.7208 |
746
+ | 2.6518 | 3100 | 0.0248 | 0.0574 | 0.7198 |
747
+ | 2.7374 | 3200 | 0.0504 | 0.0575 | 0.7195 |
748
+ | 2.8229 | 3300 | 0.0259 | 0.0574 | 0.7208 |
749
+ | 2.9085 | 3400 | 0.0288 | 0.0570 | 0.7214 |
750
+ | 2.9940 | 3500 | 0.0595 | 0.0566 | 0.7233 |
751
+ | 3.0796 | 3600 | 0.0372 | 0.0562 | 0.7212 |
752
+ | 3.1651 | 3700 | 0.0334 | 0.0563 | 0.7218 |
753
+ | 3.2506 | 3800 | 0.0384 | 0.0563 | 0.7210 |
754
+ | 3.3362 | 3900 | 0.0178 | 0.0564 | 0.7200 |
755
+ | 3.4217 | 4000 | 0.0313 | 0.0564 | 0.7201 |
756
+ | 3.5073 | 4100 | 0.0447 | 0.0562 | 0.7197 |
757
+ | 3.5928 | 4200 | 0.0281 | 0.0562 | 0.7199 |
758
+ | 3.6784 | 4300 | 0.02 | 0.0563 | 0.7199 |
759
+ | 3.7639 | 4400 | 0.0535 | 0.0562 | 0.7212 |
760
+ | 3.8494 | 4500 | 0.017 | 0.0562 | 0.7207 |
761
+ | 3.9350 | 4600 | 0.0353 | 0.0562 | 0.7208 |
762
+ | 4.0 | 4676 | - | - | 0.6887 |
763
+
764
+
765
+ ### Framework Versions
766
+ - Python: 3.10.12
767
+ - Sentence Transformers: 3.1.0
768
+ - Transformers: 4.44.2
769
+ - PyTorch: 2.4.0+cu121
770
+ - Accelerate: 0.34.2
771
+ - Datasets: 3.0.0
772
+ - Tokenizers: 0.19.1
773
+
774
+ ## Citation
775
+
776
+ ### BibTeX
777
+
778
+ #### Sentence Transformers
779
+ ```bibtex
780
+ @inproceedings{reimers-2019-sentence-bert,
781
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
782
+ author = "Reimers, Nils and Gurevych, Iryna",
783
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
784
+ month = "11",
785
+ year = "2019",
786
+ publisher = "Association for Computational Linguistics",
787
+ url = "https://arxiv.org/abs/1908.10084",
788
+ }
789
+ ```
790
+
791
+ #### MultipleNegativesRankingLoss
792
+ ```bibtex
793
+ @misc{henderson2017efficient,
794
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
795
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
796
+ year={2017},
797
+ eprint={1705.00652},
798
+ archivePrefix={arXiv},
799
+ primaryClass={cs.CL}
800
+ }
801
+ ```
802
+
803
+ <!--
804
+ ## Glossary
805
+
806
+ *Clearly define terms in order to be accessible across audiences.*
807
+ -->
808
+
809
+ <!--
810
+ ## Model Card Authors
811
+
812
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
813
+ -->
814
+
815
+ <!--
816
+ ## Model Card Contact
817
+
818
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
819
+ -->
config.json ADDED
@@ -0,0 +1,50 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "nampham1106/gte-multilingual-base-finetuned",
3
+ "architectures": [
4
+ "NewModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.0,
7
+ "auto_map": {
8
+ "AutoConfig": "Alibaba-NLP/new-impl--configuration.NewConfig",
9
+ "AutoModel": "Alibaba-NLP/new-impl--modeling.NewModel",
10
+ "AutoModelForMaskedLM": "Alibaba-NLP/new-impl--modeling.NewForMaskedLM",
11
+ "AutoModelForMultipleChoice": "Alibaba-NLP/new-impl--modeling.NewForMultipleChoice",
12
+ "AutoModelForQuestionAnswering": "Alibaba-NLP/new-impl--modeling.NewForQuestionAnswering",
13
+ "AutoModelForSequenceClassification": "Alibaba-NLP/new-impl--modeling.NewForSequenceClassification",
14
+ "AutoModelForTokenClassification": "Alibaba-NLP/new-impl--modeling.NewForTokenClassification"
15
+ },
16
+ "classifier_dropout": 0.0,
17
+ "hidden_act": "gelu",
18
+ "hidden_dropout_prob": 0.1,
19
+ "hidden_size": 768,
20
+ "id2label": {
21
+ "0": "LABEL_0"
22
+ },
23
+ "initializer_range": 0.02,
24
+ "intermediate_size": 3072,
25
+ "label2id": {
26
+ "LABEL_0": 0
27
+ },
28
+ "layer_norm_eps": 1e-12,
29
+ "layer_norm_type": "layer_norm",
30
+ "logn_attention_clip1": false,
31
+ "logn_attention_scale": false,
32
+ "max_position_embeddings": 8192,
33
+ "model_type": "new",
34
+ "num_attention_heads": 12,
35
+ "num_hidden_layers": 12,
36
+ "pack_qkv": true,
37
+ "pad_token_id": 1,
38
+ "position_embedding_type": "rope",
39
+ "rope_scaling": {
40
+ "factor": 8.0,
41
+ "type": "ntk"
42
+ },
43
+ "rope_theta": 20000,
44
+ "torch_dtype": "float32",
45
+ "transformers_version": "4.44.2",
46
+ "type_vocab_size": 1,
47
+ "unpad_inputs": false,
48
+ "use_memory_efficient_attention": false,
49
+ "vocab_size": 250048
50
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.1.0",
4
+ "transformers": "4.44.2",
5
+ "pytorch": "2.4.0+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:65fba9684396dc66f24e84e24fba75298e8ac31f3b92cfbba1f4a966f5c665b9
3
+ size 1221487872
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 8192,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:aa7a6ad87a7ce8fe196787355f6af7d03aee94d19c54a5eb1392ed18c8ef451a
3
+ size 17082988
tokenizer_config.json ADDED
@@ -0,0 +1,61 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "max_length": 8192,
50
+ "model_max_length": 8192,
51
+ "pad_to_multiple_of": null,
52
+ "pad_token": "<pad>",
53
+ "pad_token_type_id": 0,
54
+ "padding_side": "right",
55
+ "sep_token": "</s>",
56
+ "stride": 0,
57
+ "tokenizer_class": "XLMRobertaTokenizer",
58
+ "truncation_side": "right",
59
+ "truncation_strategy": "longest_first",
60
+ "unk_token": "<unk>"
61
+ }