louisbrulenaudet commited on
Commit
7745f05
1 Parent(s): 70ddf93

Add new SentenceTransformer model.

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,682 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: Alibaba-NLP/gte-multilingual-base
3
+ library_name: sentence-transformers
4
+ metrics:
5
+ - cosine_accuracy@1
6
+ - cosine_accuracy@3
7
+ - cosine_accuracy@5
8
+ - cosine_accuracy@10
9
+ - cosine_precision@1
10
+ - cosine_precision@3
11
+ - cosine_precision@5
12
+ - cosine_precision@10
13
+ - cosine_recall@1
14
+ - cosine_recall@3
15
+ - cosine_recall@5
16
+ - cosine_recall@10
17
+ - cosine_ndcg@10
18
+ - cosine_mrr@10
19
+ - cosine_map@100
20
+ - dot_accuracy@1
21
+ - dot_accuracy@3
22
+ - dot_accuracy@5
23
+ - dot_accuracy@10
24
+ - dot_precision@1
25
+ - dot_precision@3
26
+ - dot_precision@5
27
+ - dot_precision@10
28
+ - dot_recall@1
29
+ - dot_recall@3
30
+ - dot_recall@5
31
+ - dot_recall@10
32
+ - dot_ndcg@10
33
+ - dot_mrr@10
34
+ - dot_map@100
35
+ pipeline_tag: sentence-similarity
36
+ tags:
37
+ - sentence-transformers
38
+ - sentence-similarity
39
+ - feature-extraction
40
+ - generated_from_trainer
41
+ - dataset_size:303863
42
+ - loss:CachedGISTEmbedLoss
43
+ widget:
44
+ - source_sentence: Élucider la signification de 'navire de plaisance' d'après l'article
45
+ 217 undecies du Code général des impôts et détailler les différents types d'investissements
46
+ concernés.
47
+ sentences:
48
+ - Selon l'article 217 undecies du Code général des impôts, pour bénéficier de la
49
+ déduction fiscale, les investissements doivent être réalisés sous forme de souscriptions
50
+ au capital de sociétés qui gèrent des concessions de service public local. Ces
51
+ investissements doivent être spécifiquement orientés vers des activités productives
52
+ assignées à ces concessions pour une durée minimale de cinq ans. En outre, ces
53
+ concessions doivent opérer exclusivement dans des secteurs éligibles situés dans
54
+ les départements ou collectivités d'outre-mer, contribuant ainsi au développement
55
+ économique des territoires ultramarins.
56
+ - Dans le contexte de l'article 217 undecies du Code général des impôts, un 'navire
57
+ de plaisance' désigne une embarcation spécifiquement utilisée pour des activités
58
+ de loisir, excluant ainsi toute utilisation professionnelle telle que la pêche
59
+ ou le transport. Les investissements pertinents pouvant bénéficier de cet agrément
60
+ incluent non seulement l'achat ou la construction de ces navires, mais aussi leur
61
+ utilisation dans des activités de tourisme comme la location sous différentes
62
+ formes, les voyages organisés et la pêche de loisir, ainsi que les investissements
63
+ dans les infrastructures et équipements nécessaires à ces activités touristiques.
64
+ - L'article R. 257 B-1 du Livre des Procédures Fiscales organise les modalités pratiques
65
+ relatives à l'information du contribuable quant à la mise en œuvre d'une compensation
66
+ fiscale de recouvrement. Cette disposition confère au contribuable le droit d'être
67
+ informé en amont de la réalisation de la compensation. Ce dispositif implique
68
+ que le comptable public est tenu de communiquer avec le contribuable, afin de
69
+ l'éclairer sur le processus et les conséquences de cette opération. L'information
70
+ préalable joue un rôle crucial, car elle accorde au redevable l'opportunité de
71
+ comprendre les ajustements à venir sur ses comptes vis-à-vis de l'administration
72
+ fiscale.
73
+ - source_sentence: Énumérer en détail les informations requises par l'article 50-00
74
+ G, Annexe IV du Code général des impôts concernant la déclaration récapitulative
75
+ mensuelle que doit établir l'entrepositaire agréé.
76
+ sentences:
77
+ - 'Pour se conformer aux dispositions imposées par l''article 50-00 G, Annexe IV
78
+ du Code général des impôts, l''entrepositaire agréé est tenu de rédiger une déclaration
79
+ récapitulative mensuelle distincte pour chaque entrepôt fiscal suspensif des droits
80
+ d''accises qu''il gère. Une telle déclaration doit comprendre : les noms ou la
81
+ dénomination de l''entreprise, l''adresse du siège social ou du principal établissement,
82
+ le numéro d''identification de l''entrepôt fiscal, l''adresse de l''entrepôt fiscal,
83
+ le lieu de tenue de la comptabilité matières, l''année et le mois concernés par
84
+ la déclaration, la date et le lieu d''établissement de la déclaration ainsi que
85
+ la signature et le cachet de l''entreprise. Elle doit également indiquer la raison
86
+ sociale de la caution ou, le cas échéant, la mention ''Dispense''. Au besoin,
87
+ elle peut comporter des mentions relatives aux comptes d''âge ou de vieillissement,
88
+ les références aux contrats d''achat qui exigent un visa de l''établissement mentionné
89
+ dans l''article L. 621-1 du Code rural et de la pêche maritime, les numéros d''enregistrement
90
+ des contrats d''achat et les numéros des déclarations de transactions soumises
91
+ aux interprofessions, ainsi que l''avis de blocage, l''engagement de garantie
92
+ ou la mainlevée de warrant agricole ou de l''engagement de garantie, selon l''applicabilité
93
+ à chaque cas particulier.'
94
+ - L'intégration de Mayotte dans le champ d'application du Code général des impôts,
95
+ rendant ainsi les entreprises mahoraises éligibles au crédit d'impôt pour investissements
96
+ productifs outre-mer, a été actée par le législateur au travers de la loi n° 2010-1487
97
+ du 7 décembre 2010. Cette loi a élevé Mayotte au statut de département, étendant
98
+ à ce titre l'ensemble des dispositions du CGI. L'ordonnance n° 2013-837 du 19
99
+ septembre 2013 est venue quant à elle expliciter les adaptations nécessaires au
100
+ code des douanes et au CGI pour Mayotte. Conséquence directe de ces textes, les
101
+ entreprises exerçant à Mayotte peuvent prétendre au crédit d'impôt en vigueur
102
+ dès le 1er janvier 2014, conformément à l'article 244 quater W du CGI.
103
+ - Le relevé des frais généraux prévu à l'article 54 quater du Code général des impôts
104
+ doit comporter les renseignements propres à l'exercice pour lequel il est fourni
105
+ et ceux qui se rapportent à l'exercice précédent.
106
+ - source_sentence: Quels sont les éléments que doit contenir la demande déposée auprès
107
+ de la direction générale des finances publiques pour que les sociétés, compagnies
108
+ ou entreprises françaises puissent bénéficier du régime fiscal prévu pour l'émission
109
+ de séries spéciales d'obligations à l'étranger ?
110
+ sentences:
111
+ - Pour le premier exercice comptable de l'entreprise d'une durée de quatorze mois,
112
+ le plafond standard d'exonération de 61 000 € est ajusté au prorata de la durée,
113
+ donnant un nouveau plafond d'exonération de 71 166 € (61 000 € x 14/12).
114
+ - Pour être admises à bénéficier du régime fiscal prévu au 1 de l'article 131 ter
115
+ du Code général des impôts, les sociétés, compagnies ou entreprises françaises
116
+ qui se proposent d'émettre à l'étranger des séries spéciales d'obligations, doivent
117
+ déposer au préalable une demande spéciale à la direction générale des finances
118
+ publiques. Cette demande indique la date et les conditions de l'émission ainsi
119
+ que le nombre, le montant et les numéros des titres à émettre.
120
+ - Pour atténuer certaines contraintes fiscales, les sociétés étrangères exerçant
121
+ une activité sur le territoire français ont la possibilité de restreindre le montant
122
+ de la retenue à la source, qu'elles sont tenues de verser en vertu de l'article
123
+ 115 quinquies du Code général des impôts, à une somme équivalente à l'impôt définitivement
124
+ dû. Cette réduction prend en considération les prévisions de distributions de
125
+ dividendes et le lieu de résidence fiscale des actionnaires. Pour bénéficier de
126
+ ce dispositif, lesdites sociétés doivent expressément formuler une demande en
127
+ référence à la directive pertinente et la joindre à la déclaration n° 2777-D-SD.
128
+ Cela implique un suivi rigoureux de l'impact des distributions réelles et des
129
+ domiciliations des bénéficiaires afin d'éviter les insuffisances de versement,
130
+ sous peine de régularisation ultérieure accompagnée de l'intérêt de retard selon
131
+ les articles 1727 et 1729 du même code.
132
+ - source_sentence: Expliquez comment est organisé le recouvrement de l'impôt sur la
133
+ fortune immobilière en référence aux modalités décrites dans l'article 1658 du
134
+ Code général des impôts.
135
+ sentences:
136
+ - 'Dans le contexte de la déclaration des revenus fonciers, la société doit émettre
137
+ une attestation annuelle qui doit être remise à chaque associé au plus tard le
138
+ deuxième jour ouvré après le 1er mai, selon les modalités fixées par le décret
139
+ n° 2009-316 du 20 mars 2009. Cette attestation revêt une importance cruciale puisqu''elle
140
+ permet aux associés de renseigner correctement leur déclaration de revenus fonciers
141
+ via l''imprimé n° 2044 spécial. Elle doit recenser des informations précises :
142
+ l''identité et l''adresse de l''associé, la détention des parts au cours de l''année,
143
+ le respect des conditions de loyer, le montant de l''amortissement ainsi que le
144
+ revenu net foncier qui découle des parts de l''associé, tant dans le régime de
145
+ droit commun qu''en incluant la déduction liée à l''amortissement.'
146
+ - Le recouvrement de l'impôt sur la fortune immobilière s'orchestre conformément
147
+ aux dispositions disposées dans l'article 1658 du Code général des impôts. Cela
148
+ implique que les techniques, les procédures, ainsi que les moyens d'exécution
149
+ prévus pour le recouvrement de cet impôt sont alignés sur ceux établis pour l'impôt
150
+ sur le revenu.
151
+ - L'article 981 du Code général des impôts établit que les normes régissant les
152
+ droits d'enregistrement, sauf spécification contraire, sont adaptées à la gestion
153
+ de l'impôt sur la fortune immobilière. Cela signifie que les méthodes de contrôle,
154
+ telles que les audits et inspections, ainsi que les procédures de règlement des
155
+ contentieux sont extensibles à l'impôt sur la fortune immobilière. Cette approche
156
+ garantit une uniformité des pratiques administratives fiscales, facilitant ainsi
157
+ une application homogène et cohérente des lois fiscales relatives à la fortune
158
+ immobilière.
159
+ - source_sentence: Exposer les modalités de dérogation au secret fiscal autorisant
160
+ le juge à demander des documents fiscaux nécessaires pour résoudre un litige,
161
+ en vertu de l'article L. 143 du Livre des Procédures Fiscales.
162
+ sentences:
163
+ - Selon les dispositions du Bulletin officiel des finances publiques-instructions
164
+ administratives, spécifiquement le BOI-DJC-SECR-10-20-50, le procureur de la République
165
+ détient le droit, dans le contexte de toute investigation judiciaire, qu'elle
166
+ relève d'une enquête de flagrance, préliminaire ou autre, de solliciter des renseignements
167
+ ou documents essentiels à l'enquête auprès de l'administration fiscale. Cette
168
+ sollicitation peut être adressée directement ou via un officier de police judiciaire
169
+ agissant sur une réquisition du procureur. Conformément à l'article L.141 A du
170
+ Livre des procédures fiscales, le secret fiscal ne constitue pas un frein légal
171
+ à la transmission des informations ou documents exigés par le procureur.
172
+ - L'article 199 novovicies du Code général des impôts dispose de modalités de réduction
173
+ d'impôt spécifiques pour les transactions d'acquisition et de construction durant
174
+ les années 2023 et 2024. En 2023, les bénéfices de cette réduction s'établissent
175
+ à 4,5 % pour la première phase triennale et à 2,5 % pour la seconde. Pour les
176
+ opérations effectuées en 2024, les réductions offertes sont de 3 % pendant la
177
+ première période triennale et de 2 % pour la suivante. Ces pourcentages se rapportent
178
+ aux acquisitions non mentionnées au 5° du B du I ainsi qu'aux constructions référencées
179
+ au 1° du B du I, avec nécessité que le permis de construire ait été délivré durant
180
+ l'année correspondante.
181
+ - Conformément aux dispositions de l'article L. 143 du Livre des Procédures Fiscales,
182
+ le secret fiscal peut être levé dans le cadre d'un litige par décision du juge.
183
+ Cette mesure vise à autoriser la présentation de documents fiscaux, jugés utiles
184
+ par le magistrat pour trancher une affaire. La levée de ce secret est toutefois
185
+ soumise à une interprétation stricte, de sorte que seuls les documents réellement
186
+ susceptibles d'éclairer le juge sur l'étendue du préjudice des individus impliqués
187
+ peuvent être divulgués. Les renseignements qui n'ont de pertinence que pour des
188
+ questions périphériques de la procédure ou qui se rapportent uniquement à l'application
189
+ d'un jugement déjà prononcé sont exclus de cette possibilité de communication.
190
+ co2_eq_emissions:
191
+ emissions: 2036.3553910202609
192
+ energy_consumed: 5.516569338938681
193
+ source: codecarbon
194
+ training_type: fine-tuning
195
+ on_cloud: false
196
+ cpu_model: AMD EPYC 9V84 96-Core Processor
197
+ ram_total_size: 314.68053817749023
198
+ hours_used: 9.954
199
+ hardware_used: 1 x NVIDIA H100 NVL
200
+ model-index:
201
+ - name: SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
202
+ results:
203
+ - task:
204
+ type: information-retrieval
205
+ name: Information Retrieval
206
+ dataset:
207
+ name: Lemone
208
+ type: Lemone
209
+ metrics:
210
+ - type: cosine_accuracy@1
211
+ value: 0.9736673089274245
212
+ name: Cosine Accuracy@1
213
+ - type: cosine_accuracy@3
214
+ value: 0.9916506101477199
215
+ name: Cosine Accuracy@3
216
+ - type: cosine_accuracy@5
217
+ value: 0.993577392421323
218
+ name: Cosine Accuracy@5
219
+ - type: cosine_accuracy@10
220
+ value: 0.9967886962106616
221
+ name: Cosine Accuracy@10
222
+ - type: cosine_precision@1
223
+ value: 0.9736673089274245
224
+ name: Cosine Precision@1
225
+ - type: cosine_precision@3
226
+ value: 0.33055020338257335
227
+ name: Cosine Precision@3
228
+ - type: cosine_precision@5
229
+ value: 0.1987154784842646
230
+ name: Cosine Precision@5
231
+ - type: cosine_precision@10
232
+ value: 0.09967886962106615
233
+ name: Cosine Precision@10
234
+ - type: cosine_recall@1
235
+ value: 0.9736673089274245
236
+ name: Cosine Recall@1
237
+ - type: cosine_recall@3
238
+ value: 0.9916506101477199
239
+ name: Cosine Recall@3
240
+ - type: cosine_recall@5
241
+ value: 0.993577392421323
242
+ name: Cosine Recall@5
243
+ - type: cosine_recall@10
244
+ value: 0.9967886962106616
245
+ name: Cosine Recall@10
246
+ - type: cosine_ndcg@10
247
+ value: 0.9865226900324854
248
+ name: Cosine Ndcg@10
249
+ - type: cosine_mrr@10
250
+ value: 0.9830947793375538
251
+ name: Cosine Mrr@10
252
+ - type: cosine_map@100
253
+ value: 0.9832069316895906
254
+ name: Cosine Map@100
255
+ - type: dot_accuracy@1
256
+ value: 0.9736673089274245
257
+ name: Dot Accuracy@1
258
+ - type: dot_accuracy@3
259
+ value: 0.9916506101477199
260
+ name: Dot Accuracy@3
261
+ - type: dot_accuracy@5
262
+ value: 0.993577392421323
263
+ name: Dot Accuracy@5
264
+ - type: dot_accuracy@10
265
+ value: 0.9967886962106616
266
+ name: Dot Accuracy@10
267
+ - type: dot_precision@1
268
+ value: 0.9736673089274245
269
+ name: Dot Precision@1
270
+ - type: dot_precision@3
271
+ value: 0.33055020338257335
272
+ name: Dot Precision@3
273
+ - type: dot_precision@5
274
+ value: 0.1987154784842646
275
+ name: Dot Precision@5
276
+ - type: dot_precision@10
277
+ value: 0.09967886962106615
278
+ name: Dot Precision@10
279
+ - type: dot_recall@1
280
+ value: 0.9736673089274245
281
+ name: Dot Recall@1
282
+ - type: dot_recall@3
283
+ value: 0.9916506101477199
284
+ name: Dot Recall@3
285
+ - type: dot_recall@5
286
+ value: 0.993577392421323
287
+ name: Dot Recall@5
288
+ - type: dot_recall@10
289
+ value: 0.9967886962106616
290
+ name: Dot Recall@10
291
+ - type: dot_ndcg@10
292
+ value: 0.9865226900324854
293
+ name: Dot Ndcg@10
294
+ - type: dot_mrr@10
295
+ value: 0.9830947793375538
296
+ name: Dot Mrr@10
297
+ - type: dot_map@100
298
+ value: 0.9832069316895906
299
+ name: Dot Map@100
300
+ ---
301
+
302
+ # SentenceTransformer based on Alibaba-NLP/gte-multilingual-base
303
+
304
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Alibaba-NLP/gte-multilingual-base](https://huggingface.co/Alibaba-NLP/gte-multilingual-base). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
305
+
306
+ ## Model Details
307
+
308
+ ### Model Description
309
+ - **Model Type:** Sentence Transformer
310
+ - **Base model:** [Alibaba-NLP/gte-multilingual-base](https://huggingface.co/Alibaba-NLP/gte-multilingual-base) <!-- at revision 7fc06782350c1a83f88b15dd4b38ef853d3b8503 -->
311
+ - **Maximum Sequence Length:** 8192 tokens
312
+ - **Output Dimensionality:** 768 tokens
313
+ - **Similarity Function:** Cosine Similarity
314
+ <!-- - **Training Dataset:** Unknown -->
315
+ <!-- - **Language:** Unknown -->
316
+ <!-- - **License:** Unknown -->
317
+
318
+ ### Model Sources
319
+
320
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
321
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
322
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
323
+
324
+ ### Full Model Architecture
325
+
326
+ ```
327
+ SentenceTransformer(
328
+ (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: NewModel
329
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
330
+ (2): Normalize()
331
+ )
332
+ ```
333
+
334
+ ## Usage
335
+
336
+ ### Direct Usage (Sentence Transformers)
337
+
338
+ First install the Sentence Transformers library:
339
+
340
+ ```bash
341
+ pip install -U sentence-transformers
342
+ ```
343
+
344
+ Then you can load this model and run inference.
345
+ ```python
346
+ from sentence_transformers import SentenceTransformer
347
+
348
+ # Download from the 🤗 Hub
349
+ model = SentenceTransformer("louisbrulenaudet/lemone-gte-embed-max")
350
+ # Run inference
351
+ sentences = [
352
+ "Exposer les modalités de dérogation au secret fiscal autorisant le juge à demander des documents fiscaux nécessaires pour résoudre un litige, en vertu de l'article L. 143 du Livre des Procédures Fiscales.",
353
+ "Conformément aux dispositions de l'article L. 143 du Livre des Procédures Fiscales, le secret fiscal peut être levé dans le cadre d'un litige par décision du juge. Cette mesure vise à autoriser la présentation de documents fiscaux, jugés utiles par le magistrat pour trancher une affaire. La levée de ce secret est toutefois soumise à une interprétation stricte, de sorte que seuls les documents réellement susceptibles d'éclairer le juge sur l'étendue du préjudice des individus impliqués peuvent être divulgués. Les renseignements qui n'ont de pertinence que pour des questions périphériques de la procédure ou qui se rapportent uniquement à l'application d'un jugement déjà prononcé sont exclus de cette possibilité de communication.",
354
+ "Selon les dispositions du Bulletin officiel des finances publiques-instructions administratives, spécifiquement le BOI-DJC-SECR-10-20-50, le procureur de la République détient le droit, dans le contexte de toute investigation judiciaire, qu'elle relève d'une enquête de flagrance, préliminaire ou autre, de solliciter des renseignements ou documents essentiels à l'enquête auprès de l'administration fiscale. Cette sollicitation peut être adressée directement ou via un officier de police judiciaire agissant sur une réquisition du procureur. Conformément à l'article L.141 A du Livre des procédures fiscales, le secret fiscal ne constitue pas un frein légal à la transmission des informations ou documents exigés par le procureur.",
355
+ ]
356
+ embeddings = model.encode(sentences)
357
+ print(embeddings.shape)
358
+ # [3, 768]
359
+
360
+ # Get the similarity scores for the embeddings
361
+ similarities = model.similarity(embeddings, embeddings)
362
+ print(similarities.shape)
363
+ # [3, 3]
364
+ ```
365
+
366
+ <!--
367
+ ### Direct Usage (Transformers)
368
+
369
+ <details><summary>Click to see the direct usage in Transformers</summary>
370
+
371
+ </details>
372
+ -->
373
+
374
+ <!--
375
+ ### Downstream Usage (Sentence Transformers)
376
+
377
+ You can finetune this model on your own dataset.
378
+
379
+ <details><summary>Click to expand</summary>
380
+
381
+ </details>
382
+ -->
383
+
384
+ <!--
385
+ ### Out-of-Scope Use
386
+
387
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
388
+ -->
389
+
390
+ ## Evaluation
391
+
392
+ ### Metrics
393
+
394
+ #### Information Retrieval
395
+ * Dataset: `Lemone`
396
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
397
+
398
+ | Metric | Value |
399
+ |:--------------------|:-----------|
400
+ | cosine_accuracy@1 | 0.9737 |
401
+ | cosine_accuracy@3 | 0.9917 |
402
+ | cosine_accuracy@5 | 0.9936 |
403
+ | cosine_accuracy@10 | 0.9968 |
404
+ | cosine_precision@1 | 0.9737 |
405
+ | cosine_precision@3 | 0.3306 |
406
+ | cosine_precision@5 | 0.1987 |
407
+ | cosine_precision@10 | 0.0997 |
408
+ | cosine_recall@1 | 0.9737 |
409
+ | cosine_recall@3 | 0.9917 |
410
+ | cosine_recall@5 | 0.9936 |
411
+ | cosine_recall@10 | 0.9968 |
412
+ | cosine_ndcg@10 | 0.9865 |
413
+ | cosine_mrr@10 | 0.9831 |
414
+ | **cosine_map@100** | **0.9832** |
415
+ | dot_accuracy@1 | 0.9737 |
416
+ | dot_accuracy@3 | 0.9917 |
417
+ | dot_accuracy@5 | 0.9936 |
418
+ | dot_accuracy@10 | 0.9968 |
419
+ | dot_precision@1 | 0.9737 |
420
+ | dot_precision@3 | 0.3306 |
421
+ | dot_precision@5 | 0.1987 |
422
+ | dot_precision@10 | 0.0997 |
423
+ | dot_recall@1 | 0.9737 |
424
+ | dot_recall@3 | 0.9917 |
425
+ | dot_recall@5 | 0.9936 |
426
+ | dot_recall@10 | 0.9968 |
427
+ | dot_ndcg@10 | 0.9865 |
428
+ | dot_mrr@10 | 0.9831 |
429
+ | dot_map@100 | 0.9832 |
430
+
431
+ <!--
432
+ ## Bias, Risks and Limitations
433
+
434
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
435
+ -->
436
+
437
+ <!--
438
+ ### Recommendations
439
+
440
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
441
+ -->
442
+
443
+ ## Training Details
444
+
445
+ ### Training Dataset
446
+
447
+ #### Unnamed Dataset
448
+
449
+
450
+ * Size: 303,863 training samples
451
+ * Columns: <code>query</code>, <code>positive</code>, and <code>negative</code>
452
+ * Approximate statistics based on the first 1000 samples:
453
+ | | query | positive | negative |
454
+ |:--------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
455
+ | type | string | string | string |
456
+ | details | <ul><li>min: 27 tokens</li><li>mean: 51.44 tokens</li><li>max: 137 tokens</li></ul> | <ul><li>min: 39 tokens</li><li>mean: 197.8 tokens</li><li>max: 1607 tokens</li></ul> | <ul><li>min: 48 tokens</li><li>mean: 224.41 tokens</li><li>max: 2735 tokens</li></ul> |
457
+ * Samples:
458
+ | query | positive | negative |
459
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
460
+ | <code>Quels sont les éléments que doit contenir la demande déposée auprès de la direction générale des finances publiques pour que les sociétés, compagnies ou entreprises françaises puissent bénéficier du régime fiscal prévu pour l'émission de séries spéciales d'obligations à l'étranger ?</code> | <code>Pour être admises à bénéficier du régime fiscal prévu au 1 de l'article 131 ter du Code général des impôts, les sociétés, compagnies ou entreprises françaises qui se proposent d'émettre à l'étranger des séries spéciales d'obligations, doivent déposer au préalable une demande spéciale à la direction générale des finances publiques. Cette demande indique la date et les conditions de l'émission ainsi que le nombre, le montant et les numéros des titres à émettre.</code> | <code>Il est disposé par l'article 51 de l'annexe II du Code général des impôts que les titres financiers émis par des organismes non résidents sur le marché français doivent présenter la déclaration suivante en français : 'Le présent titre, émis en France, est placé, en vertu du 2 de l'article 6 de la loi française n° 65-566 du 12 juillet 1965, sous le régime fiscal des obligations françaises, pour l'application de la retenue à la source frappant les intérêts, lots, primes de remboursement et autres produits des emprunts négociables'. Cette mention garantit la conformité des titres avec le traitement fiscal spécifique imposé aux intérêts et autres produits issus de ces instruments financiers.</code> |
461
+ | <code>Quels sont les éléments que doit contenir la demande déposée auprès de la direction générale des finances publiques pour que les sociétés, compagnies ou entreprises françaises puissent bénéficier du régime fiscal prévu pour l'émission de séries spéciales d'obligations à l'étranger ?</code> | <code>Pour être admises à bénéficier du régime fiscal prévu au 1 de l'article 131 ter du Code général des impôts, les sociétés, compagnies ou entreprises françaises qui se proposent d'émettre à l'étranger des séries spéciales d'obligations, doivent déposer au préalable une demande spéciale à la direction générale des finances publiques. Cette demande indique la date et les conditions de l'émission ainsi que le nombre, le montant et les numéros des titres à émettre.</code> | <code>Selon le Code général des impôts, le régime fiscal spécial des options sur titres accordées par des corporations étrangères à des salariés ou dirigeants exerçant en France est réglementé par l'article 80 bis, titre III. Ces avantages fiscaux, précisés dans le bulletin officiel BOI-RSA-ES-20-10-20, sont subordonnés à la distribution de ces options dans le respect des conditions détaillées des articles L. 225-177 à L. 225-186 du Code de commerce, référés sous l'appellation de 'plan qualifié'.</code> |
462
+ | <code>Quels sont les éléments que doit contenir la demande déposée auprès de la direction générale des finances publiques pour que les sociétés, compagnies ou entreprises françaises puissent bénéficier du régime fiscal prévu pour l'émission de séries spéciales d'obligations à l'étranger ?</code> | <code>Pour être admises à bénéficier du régime fiscal prévu au 1 de l'article 131 ter du Code général des impôts, les sociétés, compagnies ou entreprises françaises qui se proposent d'émettre à l'étranger des séries spéciales d'obligations, doivent déposer au préalable une demande spéciale à la direction générale des finances publiques. Cette demande indique la date et les conditions de l'émission ainsi que le nombre, le montant et les numéros des titres à émettre.</code> | <code>L'agrément fiscal doit être sollicité par une entité ayant son siège social au sein de l'Union européenne ou dans un état de l'Espace économique européen lié à la France par une convention fiscale prévoyant une assistance administrative contre la fraude et l'évasion fiscales. La demande se rédige en français sur un format prescrit et est à diriger vers la direction générale des finances publiques. La requête doit être complétée par une série de justificatifs et leur traduction française, certifiant que l'entité aspirante poursuit des ambitions et présente des caractéristiques, compatibles avec celles des organismes établis en territoire français répondant aux exigences disposées par l'article 978 du Code général des impôts. Ce cadre réglementaire est également valable pour les démarches de renouvellement de l'agrément.</code> |
463
+ * Loss: [<code>CachedGISTEmbedLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cachedgistembedloss) with these parameters:
464
+ ```json
465
+ {'guide': SentenceTransformer(
466
+ (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: NewModel
467
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
468
+ (2): Normalize()
469
+ ), 'temperature': 0.01}
470
+ ```
471
+
472
+ ### Training Hyperparameters
473
+ #### Non-Default Hyperparameters
474
+
475
+ - `eval_strategy`: steps
476
+ - `per_device_train_batch_size`: 128
477
+ - `learning_rate`: 2e-05
478
+ - `num_train_epochs`: 1
479
+ - `warmup_ratio`: 0.1
480
+ - `fp16`: True
481
+ - `batch_sampler`: no_duplicates
482
+
483
+ #### All Hyperparameters
484
+ <details><summary>Click to expand</summary>
485
+
486
+ - `overwrite_output_dir`: False
487
+ - `do_predict`: False
488
+ - `eval_strategy`: steps
489
+ - `prediction_loss_only`: True
490
+ - `per_device_train_batch_size`: 128
491
+ - `per_device_eval_batch_size`: 8
492
+ - `per_gpu_train_batch_size`: None
493
+ - `per_gpu_eval_batch_size`: None
494
+ - `gradient_accumulation_steps`: 1
495
+ - `eval_accumulation_steps`: None
496
+ - `torch_empty_cache_steps`: None
497
+ - `learning_rate`: 2e-05
498
+ - `weight_decay`: 0.0
499
+ - `adam_beta1`: 0.9
500
+ - `adam_beta2`: 0.999
501
+ - `adam_epsilon`: 1e-08
502
+ - `max_grad_norm`: 1.0
503
+ - `num_train_epochs`: 1
504
+ - `max_steps`: -1
505
+ - `lr_scheduler_type`: linear
506
+ - `lr_scheduler_kwargs`: {}
507
+ - `warmup_ratio`: 0.1
508
+ - `warmup_steps`: 0
509
+ - `log_level`: passive
510
+ - `log_level_replica`: warning
511
+ - `log_on_each_node`: True
512
+ - `logging_nan_inf_filter`: True
513
+ - `save_safetensors`: True
514
+ - `save_on_each_node`: False
515
+ - `save_only_model`: False
516
+ - `restore_callback_states_from_checkpoint`: False
517
+ - `no_cuda`: False
518
+ - `use_cpu`: False
519
+ - `use_mps_device`: False
520
+ - `seed`: 42
521
+ - `data_seed`: None
522
+ - `jit_mode_eval`: False
523
+ - `use_ipex`: False
524
+ - `bf16`: False
525
+ - `fp16`: True
526
+ - `fp16_opt_level`: O1
527
+ - `half_precision_backend`: auto
528
+ - `bf16_full_eval`: False
529
+ - `fp16_full_eval`: False
530
+ - `tf32`: None
531
+ - `local_rank`: 0
532
+ - `ddp_backend`: None
533
+ - `tpu_num_cores`: None
534
+ - `tpu_metrics_debug`: False
535
+ - `debug`: []
536
+ - `dataloader_drop_last`: False
537
+ - `dataloader_num_workers`: 0
538
+ - `dataloader_prefetch_factor`: None
539
+ - `past_index`: -1
540
+ - `disable_tqdm`: False
541
+ - `remove_unused_columns`: True
542
+ - `label_names`: None
543
+ - `load_best_model_at_end`: False
544
+ - `ignore_data_skip`: False
545
+ - `fsdp`: []
546
+ - `fsdp_min_num_params`: 0
547
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
548
+ - `fsdp_transformer_layer_cls_to_wrap`: None
549
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
550
+ - `deepspeed`: None
551
+ - `label_smoothing_factor`: 0.0
552
+ - `optim`: adamw_torch
553
+ - `optim_args`: None
554
+ - `adafactor`: False
555
+ - `group_by_length`: False
556
+ - `length_column_name`: length
557
+ - `ddp_find_unused_parameters`: None
558
+ - `ddp_bucket_cap_mb`: None
559
+ - `ddp_broadcast_buffers`: False
560
+ - `dataloader_pin_memory`: True
561
+ - `dataloader_persistent_workers`: False
562
+ - `skip_memory_metrics`: True
563
+ - `use_legacy_prediction_loop`: False
564
+ - `push_to_hub`: False
565
+ - `resume_from_checkpoint`: None
566
+ - `hub_model_id`: None
567
+ - `hub_strategy`: every_save
568
+ - `hub_private_repo`: False
569
+ - `hub_always_push`: False
570
+ - `gradient_checkpointing`: False
571
+ - `gradient_checkpointing_kwargs`: None
572
+ - `include_inputs_for_metrics`: False
573
+ - `eval_do_concat_batches`: True
574
+ - `fp16_backend`: auto
575
+ - `push_to_hub_model_id`: None
576
+ - `push_to_hub_organization`: None
577
+ - `mp_parameters`:
578
+ - `auto_find_batch_size`: False
579
+ - `full_determinism`: False
580
+ - `torchdynamo`: None
581
+ - `ray_scope`: last
582
+ - `ddp_timeout`: 1800
583
+ - `torch_compile`: False
584
+ - `torch_compile_backend`: None
585
+ - `torch_compile_mode`: None
586
+ - `dispatch_batches`: None
587
+ - `split_batches`: None
588
+ - `include_tokens_per_second`: False
589
+ - `include_num_input_tokens_seen`: False
590
+ - `neftune_noise_alpha`: None
591
+ - `optim_target_modules`: None
592
+ - `batch_eval_metrics`: False
593
+ - `eval_on_start`: False
594
+ - `eval_use_gather_object`: False
595
+ - `batch_sampler`: no_duplicates
596
+ - `multi_dataset_batch_sampler`: proportional
597
+
598
+ </details>
599
+
600
+ ### Training Logs
601
+ | Epoch | Step | Training Loss | Lemone_cosine_map@100 |
602
+ |:------:|:----:|:-------------:|:---------------------:|
603
+ | 0.0421 | 100 | - | 0.9743 |
604
+ | 0.0842 | 200 | 0.0049 | 0.9772 |
605
+ | 0.1264 | 300 | - | 0.9801 |
606
+ | 0.1685 | 400 | 0.0017 | 0.9796 |
607
+ | 0.2106 | 500 | - | 0.9778 |
608
+ | 0.2527 | 600 | 0.0013 | 0.9772 |
609
+ | 0.2949 | 700 | - | 0.9813 |
610
+ | 0.3370 | 800 | 0.002 | 0.9828 |
611
+ | 0.3791 | 900 | - | 0.9840 |
612
+ | 0.4212 | 1000 | 0.0019 | 0.9812 |
613
+ | 0.4634 | 1100 | - | 0.9824 |
614
+ | 0.5055 | 1200 | 0.0021 | 0.9808 |
615
+ | 0.5476 | 1300 | - | 0.9828 |
616
+ | 0.5897 | 1400 | 0.0016 | 0.9853 |
617
+ | 0.6318 | 1500 | - | 0.9833 |
618
+ | 0.6740 | 1600 | 0.002 | 0.9844 |
619
+ | 0.7161 | 1700 | - | 0.9840 |
620
+ | 0.7582 | 1800 | 0.0011 | 0.9833 |
621
+ | 0.8003 | 1900 | - | 0.9819 |
622
+ | 0.8425 | 2000 | 0.0026 | 0.9814 |
623
+ | 0.8846 | 2100 | - | 0.9832 |
624
+ | 0.9267 | 2200 | 0.0026 | 0.9834 |
625
+ | 0.9688 | 2300 | - | 0.9832 |
626
+
627
+
628
+ ### Environmental Impact
629
+ Carbon emissions were measured using [CodeCarbon](https://github.com/mlco2/codecarbon).
630
+ - **Energy Consumed**: 5.517 kWh
631
+ - **Carbon Emitted**: 2.036 kg of CO2
632
+ - **Hours Used**: 9.954 hours
633
+
634
+ ### Training Hardware
635
+ - **On Cloud**: No
636
+ - **GPU Model**: 1 x NVIDIA H100 NVL
637
+ - **CPU Model**: AMD EPYC 9V84 96-Core Processor
638
+ - **RAM Size**: 314.68 GB
639
+
640
+ ### Framework Versions
641
+ - Python: 3.10.12
642
+ - Sentence Transformers: 3.1.1
643
+ - Transformers: 4.44.2
644
+ - PyTorch: 2.3.0+cu121
645
+ - Accelerate: 0.33.0
646
+ - Datasets: 2.21.0
647
+ - Tokenizers: 0.19.1
648
+
649
+ ## Citation
650
+
651
+ ### BibTeX
652
+
653
+ #### Sentence Transformers
654
+ ```bibtex
655
+ @inproceedings{reimers-2019-sentence-bert,
656
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
657
+ author = "Reimers, Nils and Gurevych, Iryna",
658
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
659
+ month = "11",
660
+ year = "2019",
661
+ publisher = "Association for Computational Linguistics",
662
+ url = "https://arxiv.org/abs/1908.10084",
663
+ }
664
+ ```
665
+
666
+ <!--
667
+ ## Glossary
668
+
669
+ *Clearly define terms in order to be accessible across audiences.*
670
+ -->
671
+
672
+ <!--
673
+ ## Model Card Authors
674
+
675
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
676
+ -->
677
+
678
+ <!--
679
+ ## Model Card Contact
680
+
681
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
682
+ -->
config.json ADDED
@@ -0,0 +1,50 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "Alibaba-NLP/gte-multilingual-base",
3
+ "architectures": [
4
+ "NewModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.0,
7
+ "auto_map": {
8
+ "AutoConfig": "Alibaba-NLP/new-impl--configuration.NewConfig",
9
+ "AutoModel": "Alibaba-NLP/new-impl--modeling.NewModel",
10
+ "AutoModelForMaskedLM": "Alibaba-NLP/new-impl--modeling.NewForMaskedLM",
11
+ "AutoModelForMultipleChoice": "Alibaba-NLP/new-impl--modeling.NewForMultipleChoice",
12
+ "AutoModelForQuestionAnswering": "Alibaba-NLP/new-impl--modeling.NewForQuestionAnswering",
13
+ "AutoModelForSequenceClassification": "Alibaba-NLP/new-impl--modeling.NewForSequenceClassification",
14
+ "AutoModelForTokenClassification": "Alibaba-NLP/new-impl--modeling.NewForTokenClassification"
15
+ },
16
+ "classifier_dropout": 0.0,
17
+ "hidden_act": "gelu",
18
+ "hidden_dropout_prob": 0.1,
19
+ "hidden_size": 768,
20
+ "id2label": {
21
+ "0": "LABEL_0"
22
+ },
23
+ "initializer_range": 0.02,
24
+ "intermediate_size": 3072,
25
+ "label2id": {
26
+ "LABEL_0": 0
27
+ },
28
+ "layer_norm_eps": 1e-12,
29
+ "layer_norm_type": "layer_norm",
30
+ "logn_attention_clip1": false,
31
+ "logn_attention_scale": false,
32
+ "max_position_embeddings": 8192,
33
+ "model_type": "new",
34
+ "num_attention_heads": 12,
35
+ "num_hidden_layers": 12,
36
+ "pack_qkv": true,
37
+ "pad_token_id": 1,
38
+ "position_embedding_type": "rope",
39
+ "rope_scaling": {
40
+ "factor": 8.0,
41
+ "type": "ntk"
42
+ },
43
+ "rope_theta": 20000,
44
+ "torch_dtype": "float32",
45
+ "transformers_version": "4.44.2",
46
+ "type_vocab_size": 1,
47
+ "unpad_inputs": false,
48
+ "use_memory_efficient_attention": false,
49
+ "vocab_size": 250048
50
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.1.1",
4
+ "transformers": "4.44.2",
5
+ "pytorch": "2.3.0+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:eb0aa7aa1f11294143909fad3f0218660fa03310b0d874a33d704d1213fb37bf
3
+ size 1221487872
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 8192,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:aa7a6ad87a7ce8fe196787355f6af7d03aee94d19c54a5eb1392ed18c8ef451a
3
+ size 17082988
tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 8192,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "XLMRobertaTokenizer",
53
+ "unk_token": "<unk>"
54
+ }