Add SetFit model
Browse files- .gitattributes +1 -0
- 1_Pooling/config.json +7 -0
- README.md +582 -0
- config.json +29 -0
- config_sentence_transformers.json +7 -0
- config_setfit.json +4 -0
- model.safetensors +3 -0
- model_head.pkl +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- sentencepiece.bpe.model +3 -0
- special_tokens_map.json +15 -0
- tokenizer.json +3 -0
- tokenizer_config.json +61 -0
.gitattributes
CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
36 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
1_Pooling/config.json
ADDED
@@ -0,0 +1,7 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 768,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false
|
7 |
+
}
|
README.md
ADDED
@@ -0,0 +1,582 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
library_name: setfit
|
3 |
+
tags:
|
4 |
+
- setfit
|
5 |
+
- sentence-transformers
|
6 |
+
- text-classification
|
7 |
+
- generated_from_setfit_trainer
|
8 |
+
metrics:
|
9 |
+
- accuracy_score
|
10 |
+
- classification_report
|
11 |
+
widget:
|
12 |
+
- text: 'Adil Hussain
|
13 |
+
|
14 |
+
Adil Hussain est reconnaissant d''avoir reçu l''enseignement de l''acteur Naseeruddin
|
15 |
+
Shah à l''époque où il fréquentait l''École nationale d''art dramatique'
|
16 |
+
- text: 'Bien que leurs opinions sur la question de savoir si les migrants sont un
|
17 |
+
avantage ou un fardeau soient plus mitigées, de nettes majorités d''électeurs
|
18 |
+
de toute la ville de New York, de la banlieue et du nord de l''État ont déclaré
|
19 |
+
que l''État devrait essayer de ralentir l''afflux de migrants, plutôt que d''en
|
20 |
+
accepter davantage et de s''efforcer d''assimiler les nouveaux arrivants Les démocrates
|
21 |
+
aspirent à renverser six circonscriptions détenues par les républicains que M.
|
22 |
+
Biden a remportées en 2020, notamment celle de M Les républicains se sont emparés
|
23 |
+
de la crise des migrants, donnant un avant-goût des campagnes de l''année prochaine
|
24 |
+
Les républicains ont surenchéri : Elise Stefanik, la New-Yorkaise qui dirige la
|
25 |
+
conférence du parti démocrate à la Chambre des représentants,
|
26 |
+
|
27 |
+
Suite à la page suivante
|
28 |
+
|
29 |
+
a déclaré à Politico la semaine dernière que le parti allait consacrer 100 millions
|
30 |
+
de dollars aux campagnes dans les circonscriptions de New York Des problèmes à
|
31 |
+
venir pour les démocrates de New York en 2024 ?
|
32 |
+
|
33 |
+
Les dirigeants démocrates de New York se débattent depuis des mois avec le problème
|
34 |
+
de l''hébergement des dizaines de milliers de migrants qui ont été transportés
|
35 |
+
par bus jusqu''à New York et laissés à sa charge Des problèmes à venir pour les
|
36 |
+
démocrates de New York en 2024 ?
|
37 |
+
|
38 |
+
Les dirigeants démocrates de New York se débattent depuis des mois avec le problème
|
39 |
+
de l''hébergement des dizaines de milliers de migrants qui ont été transportés
|
40 |
+
par bus jusqu''à New York et laissés à sa charge.
|
41 |
+
|
42 |
+
Mais une autre préoccupation se profile alors que la crise se poursuit sans qu''aucune
|
43 |
+
issue ne soit en vue : les retombées potentielles pour leur parti lors des élections
|
44 |
+
de l''année prochaine Les républicains ont tendance à se sentir en sécurité lorsqu''ils
|
45 |
+
parlent d''immigration - comme les démocrates le font pour l''avortement - et
|
46 |
+
sont clairement à l''attaque sur la question des migrants à New York, tandis que
|
47 |
+
les démocrates sont sur la défensive, a déclaré Kyle Kondik, directeur de la communication
|
48 |
+
pour le Centre de politique de l''Université de Virginie, au réseau USA Today
|
49 |
+
Plus de 100 000 migrants ont été transportés à New York depuis la frontière sud
|
50 |
+
depuis le printemps 2022. Environ 60 000 d''entre eux sont hébergés dans la ville,
|
51 |
+
et plus de 2 100 ont été transportés dans des hôtels situés dans sept comtés au
|
52 |
+
nord de la ville, de Yonkers à la périphérie de Buffalo, où ils sont logés aux
|
53 |
+
frais de la ville Les démocrates doivent y remporter des victoires pour gagner
|
54 |
+
cinq sièges à la Chambre et faire du député Hakeem Jeffries, de Brooklyn, le prochain
|
55 |
+
président de la Chambre des représentants Les publicités d''attaque des républicains
|
56 |
+
s''écrivent pratiquement d''elles-mêmes à partir d''un flot de titres et d''images
|
57 |
+
télévisées, alors que le gouverneur Kathy Hochul, le maire de New York Eric Adams
|
58 |
+
et le président Joe Biden - tous démocrates - se rejettent mutuellement la faute
|
59 |
+
et s''échangent des coups de feu pour savoir qui devrait en faire le plus Isaac
|
60 |
+
Goldberg, un stratège démocrate qui a travaillé sur plusieurs campagnes électorales
|
61 |
+
à New York, a affirmé qu''il était beaucoup trop tôt pour prédire l''impact politique
|
62 |
+
de la crise des migrants, soulignant que les élections de 2024 n''auront lieu
|
63 |
+
que dans 14 mois et que de nombreuses questions tout aussi urgentes pourraient
|
64 |
+
se poser'
|
65 |
+
- text: 'LE CANDIDAT A LA PRESIDENCE RAMASWAMY VEUT METTRE FIN AU SYSTEME DE VISA
|
66 |
+
H-1B AUX ETATS-UNIS
|
67 |
+
|
68 |
+
Décrivant le programme de visas H-1B comme une forme de "servitude", Vivek Ramaswamy,
|
69 |
+
candidat républicain indien-américain à l''élection présidentielle, a promis de
|
70 |
+
"vider" le système basé sur la loterie et de le remplacer par un système d''admission
|
71 |
+
méritocratique s''il remporte les élections présidentielles de 2024'
|
72 |
+
- text: 'Smith Hal Sparks Catherine Zeta-Jones son-Sampras Chris Owen Donald Glover
|
73 |
+
|
74 |
+
("Queer as Folk") a 54 ans Smith Hal Sparks Catherine Zeta-Jones son-Sampras Chris
|
75 |
+
Owen Donald Glover
|
76 |
+
|
77 |
+
("Queer as Folk") a 54 ans. a 54 ans. Acteur
|
78 |
+
|
79 |
+
("Je sais ce que vous avez fait l''été dernier") a 50 ans'
|
80 |
+
- text: 'Trump profiter de sa célébrité jusqu''à la Maison-Blanche.
|
81 |
+
|
82 |
+
"Cela a tué Howard parce qu''il était le roi de tous les médias Il a poursuivi
|
83 |
+
en disant que Trump ne laisserait pas ses partisans s''approcher de l''une de
|
84 |
+
ses propriétés. "Les gens qui votent pour Trump, pour la plupart, ne les laisseraient
|
85 |
+
même pas entrer dans un putain d''hôtel [ "Si être réveillé signifie que je ne
|
86 |
+
peux pas soutenir Trump, ce que je pense que cela signifie, ou que je soutiens
|
87 |
+
les personnes qui veulent être transgenres ou que je suis pour le vaccin, appelez-moi
|
88 |
+
réveillé comme vous le voulez" "Les gens qui votent pour Trump, pour la plupart,
|
89 |
+
ne les laisseraient même pas entrer dans un putain d''hôtel [...]. Allez à Mar-a-lago,
|
90 |
+
voyez s''il y a des gens qui vous ressemblent" Stern a également abordé les affirmations
|
91 |
+
de Trump et de ses partisans selon lesquelles Joe Biden a remporté l''élection
|
92 |
+
américaine de 2020 grâce à des votes frauduleux "Et soudain, Trump a transformé
|
93 |
+
Howard, qui était le roi de tous les médias, en prince Harry de tous les médias.
|
94 |
+
Tout le monde s''en fout "Trump avait l''habitude de participer à l''émission
|
95 |
+
de Stern chaque semaine. Ils étaient amis. Alors cette idée que Trump est le pire
|
96 |
+
type qui ait jamais marché sur la surface de la terre, pourquoi traîniez-vous
|
97 |
+
avec lui ?"
|
98 |
+
|
99 |
+
M Mais Stern, qui par le passé a été accusé de racisme et de sexisme dans nombre
|
100 |
+
de ses sketches à l''antenne, a été un critique virulent de Trump tout au long
|
101 |
+
de sa présidence et, plus récemment, alors qu''il se prépare à se présenter à
|
102 |
+
nouveau en 2024.
|
103 |
+
|
104 |
+
En 2021, M "Combien de temps allons-nous continuer à élire des gens qui ont perdu
|
105 |
+
l''élection ?"
|
106 |
+
|
107 |
+
Il a poursuivi en qualifiant les partisans de Trump de "nigauds".
|
108 |
+
|
109 |
+
"Mon Dieu, j''ai l''impression d''être dans une nation de nigauds. J''espère qu''il
|
110 |
+
y a encore des gens brillants et dynamiques qui aiment ce pays", a-t-il déclaré
|
111 |
+
Alors cette idée que Trump est le pire type qui ait jamais marché sur la surface
|
112 |
+
de la terre, pourquoi traîniez-vous avec lui ?"
|
113 |
+
|
114 |
+
M. Failla a déclaré que cela avait "tué" M Si "woke" signifie que je ne peux pas
|
115 |
+
soutenir Trump, ce que je pense que cela signifie, ou que je soutiens les personnes
|
116 |
+
qui veulent être transgenres ou que je suis pour le vaccin, appelez-moi "woke"
|
117 |
+
comme vous voulez Celui qui se décrit comme le "roi de tous les médias" a critiqué
|
118 |
+
ouvertement l''ancien président américain Donald Trump, les anti-vaxx et, plus
|
119 |
+
récemment, Lauren Boebert, qu''il a critiquée pour son comportement obscène dans
|
120 |
+
un théâtre de Denver au début du mois "L''omnipotence médiatique de Donald Trump
|
121 |
+
a brisé Howard Stern. C''est très important", a déclaré Failla dans la vidéo (selon
|
122 |
+
OK ! Magazine). "Trump avait l''habitude de participer à l''émission de Stern
|
123 |
+
chaque semaine L''aversion d''Howard Stern pour Donald Trump, c''est "tout l''ego".
|
124 |
+
|
125 |
+
Si "woke" signifie que je ne peux pas soutenir Trump, ce que je pense que cela
|
126 |
+
signifie, ou que je soutiens les personnes qui veulent être transgenres ou que
|
127 |
+
je suis pour le vaccin, appelez-moi "woke" comme vous voulez Trump l''année prochaine.
|
128 |
+
|
129 |
+
"Je sais que je lui botterai le cul", a-t-il déclaré aux auditeurs.
|
130 |
+
|
131 |
+
L''année suivante, Stern a déclaré qu''il envisageait de se lancer dans la course
|
132 |
+
à la présidence "pour que le pays soit à nouveau juste" En réponse, Trump a partagé
|
133 |
+
sur sa plateforme Truth Social un clip de Fox News dans lequel l''animateur Jimmy
|
134 |
+
Failla critique Stern.
|
135 |
+
|
136 |
+
"L''omnipotence médiatique de Donald Trump a brisé Howard Stern "Je vais faire
|
137 |
+
la chose très simple qui remettra le pays sur le droit chemin : un vote, une personne",
|
138 |
+
a expliqué Stern, affirmant que Trump a en fait perdu l''élection de 2016 contre
|
139 |
+
Hillary Clinton qui a remporté le vote populaire - mais pas le collège électoral'
|
140 |
+
pipeline_tag: text-classification
|
141 |
+
inference: true
|
142 |
+
base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
|
143 |
+
model-index:
|
144 |
+
- name: SetFit with sentence-transformers/paraphrase-multilingual-mpnet-base-v2
|
145 |
+
results:
|
146 |
+
- task:
|
147 |
+
type: text-classification
|
148 |
+
name: Text Classification
|
149 |
+
dataset:
|
150 |
+
name: Unknown
|
151 |
+
type: unknown
|
152 |
+
split: test
|
153 |
+
metrics:
|
154 |
+
- type: accuracy_score
|
155 |
+
value: 0.923784494086728
|
156 |
+
name: Accuracy_Score
|
157 |
+
- type: classification_report
|
158 |
+
value:
|
159 |
+
'0':
|
160 |
+
precision: 0.9251101321585903
|
161 |
+
recall: 0.8898305084745762
|
162 |
+
f1-score: 0.9071274298056154
|
163 |
+
support: 236
|
164 |
+
'1':
|
165 |
+
precision: 0.9081967213114754
|
166 |
+
recall: 0.920265780730897
|
167 |
+
f1-score: 0.9141914191419142
|
168 |
+
support: 301
|
169 |
+
'2':
|
170 |
+
precision: 0.9432314410480349
|
171 |
+
recall: 0.9642857142857143
|
172 |
+
f1-score: 0.9536423841059601
|
173 |
+
support: 224
|
174 |
+
accuracy: 0.923784494086728
|
175 |
+
macro avg:
|
176 |
+
precision: 0.9255127648393668
|
177 |
+
recall: 0.9247940011637291
|
178 |
+
f1-score: 0.9249870776844965
|
179 |
+
support: 761
|
180 |
+
weighted avg:
|
181 |
+
precision: 0.9237543325873079
|
182 |
+
recall: 0.923784494086728
|
183 |
+
f1-score: 0.9236131204146865
|
184 |
+
support: 761
|
185 |
+
name: Classification_Report
|
186 |
+
---
|
187 |
+
|
188 |
+
# SetFit with sentence-transformers/paraphrase-multilingual-mpnet-base-v2
|
189 |
+
|
190 |
+
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
|
191 |
+
|
192 |
+
The model has been trained using an efficient few-shot learning technique that involves:
|
193 |
+
|
194 |
+
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
|
195 |
+
2. Training a classification head with features from the fine-tuned Sentence Transformer.
|
196 |
+
|
197 |
+
## Model Details
|
198 |
+
|
199 |
+
### Model Description
|
200 |
+
- **Model Type:** SetFit
|
201 |
+
- **Sentence Transformer body:** [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2)
|
202 |
+
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
|
203 |
+
- **Maximum Sequence Length:** 128 tokens
|
204 |
+
- **Number of Classes:** 3 classes
|
205 |
+
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
|
206 |
+
<!-- - **Language:** Unknown -->
|
207 |
+
<!-- - **License:** Unknown -->
|
208 |
+
|
209 |
+
### Model Sources
|
210 |
+
|
211 |
+
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
|
212 |
+
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
|
213 |
+
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
|
214 |
+
|
215 |
+
### Model Labels
|
216 |
+
| Label | Examples |
|
217 |
+
|:------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
218 |
+
| pos | <ul><li>"Les PHL lèvent 1,26 milliard de dollars grâce aux obligations en dollars de détail\nLE GOUVERNEMENT PHILIPPIN a levé 1,26 milliard de dollars lors de la première émission d'obligations de détail en dollars (RDB) sous l'administration Marcos, a déclaré le ministère des Finances (DoF)"</li><li>"Atom Egoyan revient à Salomé, l'opéra qu'il a monté en 1996, avec Seven Veils\nAtom Egoyan n'a pas été surpris lorsque la Canadian Opera Company lui a demandé de remonter Salomé pour la saison 2022-23 Atom Egoyan revient à Salomé, l'opéra qu'il a monté en 1996, avec Seven Veils\nAtom Egoyan n'a pas été surpris lorsque la Canadian Opera Company lui a demandé de remonter Salomé pour la saison 2022-23. Avec ses éléments de film et de vidéo, son interprétation psychologique et sombre de l'opéra de Richard Strauss avait un solide palmarès de reprises - depuis sa création en 1996, elle avait été présentée deux fois de plus à la COC et avait été reprise par plusieurs autres compagnies"</li><li>'Paul Simon présente un documentaire sur sa carrière\nAprès un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public Paul Simon présente un documentaire sur sa carrière\nAprès un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public.\nTORONTO >> Après un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public "Il n\'y a pas de raison que vous soyez épuisés", a dit Simon à la foule après la première du documentaire d\'Alex Gibney "In Restless Dreams : The Music of Paul Simon" d\'Alex Gibney, dimanche au Festival international du film de Toronto.\nSimon, âgé de 81 ans, n\'avait pas regardé le film avant la première, et il ne l\'a pas regardé non plus dimanche TORONTO >> Après un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public.\n"Il n\'y a pas de raison que vous soyez épuisés", a dit Simon à la foule après la première du documentaire d\'Alex Gibney "In Restless Dreams : The Music of Paul Simon" d\'Alex Gibney, dimanche au Festival international du film de Toronto'</li></ul> |
|
219 |
+
| neg | <ul><li>'Le groupe Al-Mostaqilla de l\'université du Koweït a appelé les étudiants à organiser un sit-in à l\'université du Koweït lundi pour protester contre la décision de mettre fin aux classes mixtes La décision a été prise la semaine dernière par le nouveau ministre de l\'éducation, Adel Al-Mane, et le directeur par intérim de l\'université du Koweït, Fayez Al-Dhafiri, et mise en œuvre mercredi, trois jours seulement avant le début de la nouvelle année universitaire à la faculté de droit L\'association a également demandé au gouvernement de "cesser ses interventions politiques et médiatiques injustifiées" dans les affaires de l\'université du Koweït.\nL\'association a appelé le directeur par intérim de l\'université du Koweït à ne pas céder aux pressions politiques et médiatiques et à s\'efforcer de protéger l\'indépendance de l\'université Dhafiri a déclaré que la décision avait été prise en application de la loi de 1996 qui interdisait l\'enseignement mixte à l\'université du Koweït, malgré une décision de la Cour constitutionnelle de 2015 autorisant l\'enseignement mixte lorsqu\'il était nécessaire et dans des cas exceptionnels Parallèlement, l\'association des professeurs de l\'université du Koweït a publié samedi une déclaration demandant aux députés et au gouvernement de "cesser d\'interférer dans les affaires de l\'université du Koweït" et de maintenir l\'indépendance de l\'université "L\'université du Koweït était, est et sera toujours le porte-drapeau de la connaissance et des valeurs, à l\'abri de toute influence extérieure Le député Abdulwahab Al-Essa a reproché à l\'administration de l\'université du Koweït d\'avoir succombé à la pression politique au détriment de l\'intérêt public, ajoutant que l\'université du Koweït avait appliqué correctement une décision de la cour constitutionnelle autorisant les classes mixtes chaque fois que cela était nécessaire'</li><li>"L'immigration étant l'un des défis les plus difficiles à relever pour le président Joe Biden et apparaissant comme un enjeu majeur des élections de l'année prochaine, l'administration délocalise essentiellement la question en s'appuyant sur les pays d'Amérique centrale et d'Amérique du Sud pour empêcher les migrants de se diriger vers le nord"</li><li>'Lors d\'une réunion d\'information mardi, le porte-parole de l\'armée, le lieutenant-colonel Richard Hecht, a suggéré que les Palestiniens tentent de quitter la bande de Gaza par le poste-frontière de Rafah, en Égypte.\nLa perspective d\'un exode des habitants de Gaza vers le territoire égyptien a alarmé les autorités égyptiennes La question qui se pose est de savoir si Israël lancera une offensive terrestre dans la bande de Gaza, une bande de terre de 25 miles de long coincée entre Israël, l\'Égypte et la mer Méditerranée, où vivent 2,3 millions de personnes et qui est gouvernée par le Hamas depuis 2007 Israël pilonne la bande de Gaza ; les habitants se précipitent pour se mettre à l\'abri\nJERUSALEM - Les avions de combat israéliens ont bombardé la bande de Gaza quartier par quartier mardi, réduisant les bâtiments en ruines et poussant les habitants à se précipiter pour se mettre à l\'abri dans ce minuscule territoire isolé, alors qu\'Israël promet des représailles pour l\'attaque surprise du Hamas du week-end qui "se répercuteront Les autorités égyptiennes discutent avec Israël et les États-Unis afin de mettre en place des corridors humanitaires dans la bande de Gaza pour acheminer l\'aide, a déclaré un responsable égyptien. Des négociations sont en cours avec les Israéliens pour que la zone autour du point de passage de Rafah entre l\'Égypte et Gaza soit déclarée "zone d\'interdiction de feu", a déclaré le responsable, sous couvert d\'anonymat car il n\'était pas autorisé à parler aux médias'</li></ul> |
|
220 |
+
| obj | <ul><li>"L'économie pèse sur les Américains Ils sont plus nombreux à faire confiance à Trump qu'à Biden pour alléger leur fardeau\nWASHINGTON - Linda Muñoz a peur de l'économie Trump, le candidat républicain à la primaire de 2024, pour améliorer l'économie, avec une marge de 47 % à 36 %. L'écart est de 46 %-26 % en faveur de M. Trump parmi les électeurs indépendants Presque tous les républicains interrogés ont exprimé leur pessimisme à l'égard de l'économie, selon le sondage : 96 % d'entre eux estiment que la situation se dégrade au lieu de s'améliorer Le logement. L'essence. Tous ces éléments poussent les gens à s'endetter de plus en plus, disent-ils.\nSelon le sondage, près de 70 % des Américains estiment que la situation économique se dégrade, tandis que 22 % seulement estiment qu'elle s'améliore L'économie pèse sur les Américains Ils sont plus nombreux à faire confiance à Trump qu'à Biden pour alléger leur fardeau\nWASHINGTON - Linda Muñoz a peur de l'économie. Elle a puisé dans son épargne d'urgence cette année. Et elle ne croit pas que le président Joe Biden ressente sa douleur L'épicerie. Le logement. L'essence. Tous ces éléments poussent les gens à s'endetter de plus en plus, disent-ils.\nSelon le sondage, près de 70 % des Américains estiment que la situation économique se dégrade, tandis que 22 % seulement estiment qu'elle s'améliore"</li><li>'Le Pentagone va interroger d\'autres militaires sur l\'attentat suicide de l\'aéroport de Kaboul en 2021\nLe commandement central du Pentagone a ordonné l\'audition d\'une vingtaine de militaires supplémentaires qui se trouvaient à l\'aéroport de Kaboul lorsque des kamikazes ont attaqué pendant le retrait chaotique des forces américaines d\'Afghanistan, alors que les critiques persistent sur le fait que l\'attaque meurtrière aurait pu être stoppée Certaines familles des personnes tuées ou blessées se sont plaintes que le Pentagone n\'avait pas fait preuve de suffisamment de transparence au sujet de l\'attentat à la bombe qui a tué 170 Afghans\net 13 militaires américains.\nL\'enquête du commandement central américain a conclu en novembre 2021 qu\'étant donné la détérioration de la sécurité à la porte de l\'Abbaye de l\'aéroport alors que les Afghans cherchaient de plus en plus à fuir, "l\'attaque n\'aurait pas pu être évitée au niveau tactique sans dégrader la mission visant à maximiser le nombre d\'évacués" Le Pentagone a déclaré que l\'examen de l\'attentat suicide n\'avait révélé aucune identification préalable d\'un attaquant possible ni aucune demande d\'"escalade des règles d\'engagement existantes" régissant l\'utilisation de la force par les troupes américaines'</li><li>'Les retombées de la guerre se répercutent sur les lieux de travail aux États-Unis.\nNEW YORK - Les retombées de la guerre entre Israël et le Hamas se sont répandues sur les lieux de travail partout dans le monde, les dirigeants de grandes entreprises exprimant leur point de vue tandis que les travailleurs se plaignent de ne pas être entendus "À quoi me sert mon travail si je compromets ma propre morale et mon éthique ?\nL\'un des conflits les plus importants s\'est produit chez Starbucks après que Starbucks Workers United, un syndicat représentant 9 000 travailleurs dans plus de 360 magasins aux États-Unis, a tweeté "Solidarité avec la Palestine" deux jours après l\'attaque du Hamas. Le tweet a été supprimé au bout de 40 minutes, mais l\'entreprise a déclaré qu\'il avait donné lieu à plus de 1 000 plaintes, à des actes de vandalisme et à des affrontements dans ses magasins NEW YORK - Les retombées de la guerre entre Israël et le Hamas se sont répandues sur les lieux de travail partout dans le monde, les dirigeants de grandes entreprises exprimant leur point de vue tandis que les travailleurs se plaignent de ne pas être entendus'</li></ul> |
|
221 |
+
|
222 |
+
## Evaluation
|
223 |
+
|
224 |
+
### Metrics
|
225 |
+
| Label | Accuracy_Score | Classification_Report |
|
226 |
+
|:--------|:---------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
227 |
+
| **all** | 0.9238 | {'0': {'precision': 0.9251101321585903, 'recall': 0.8898305084745762, 'f1-score': 0.9071274298056154, 'support': 236}, '1': {'precision': 0.9081967213114754, 'recall': 0.920265780730897, 'f1-score': 0.9141914191419142, 'support': 301}, '2': {'precision': 0.9432314410480349, 'recall': 0.9642857142857143, 'f1-score': 0.9536423841059601, 'support': 224}, 'accuracy': 0.923784494086728, 'macro avg': {'precision': 0.9255127648393668, 'recall': 0.9247940011637291, 'f1-score': 0.9249870776844965, 'support': 761}, 'weighted avg': {'precision': 0.9237543325873079, 'recall': 0.923784494086728, 'f1-score': 0.9236131204146865, 'support': 761}} |
|
228 |
+
|
229 |
+
## Uses
|
230 |
+
|
231 |
+
### Direct Use for Inference
|
232 |
+
|
233 |
+
First install the SetFit library:
|
234 |
+
|
235 |
+
```bash
|
236 |
+
pip install setfit
|
237 |
+
```
|
238 |
+
|
239 |
+
Then you can load this model and run inference.
|
240 |
+
|
241 |
+
```python
|
242 |
+
from setfit import SetFitModel
|
243 |
+
|
244 |
+
# Download from the 🤗 Hub
|
245 |
+
model = SetFitModel.from_pretrained("mogaio/pr_ebsa_fr_tran_merged25_e5_middle_offsets")
|
246 |
+
# Run inference
|
247 |
+
preds = model("Adil Hussain
|
248 |
+
Adil Hussain est reconnaissant d'avoir reçu l'enseignement de l'acteur Naseeruddin Shah à l'époque où il fréquentait l'École nationale d'art dramatique")
|
249 |
+
```
|
250 |
+
|
251 |
+
<!--
|
252 |
+
### Downstream Use
|
253 |
+
|
254 |
+
*List how someone could finetune this model on their own dataset.*
|
255 |
+
-->
|
256 |
+
|
257 |
+
<!--
|
258 |
+
### Out-of-Scope Use
|
259 |
+
|
260 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
261 |
+
-->
|
262 |
+
|
263 |
+
<!--
|
264 |
+
## Bias, Risks and Limitations
|
265 |
+
|
266 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
267 |
+
-->
|
268 |
+
|
269 |
+
<!--
|
270 |
+
### Recommendations
|
271 |
+
|
272 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
273 |
+
-->
|
274 |
+
|
275 |
+
## Training Details
|
276 |
+
|
277 |
+
### Training Set Metrics
|
278 |
+
| Training set | Min | Median | Max |
|
279 |
+
|:-------------|:----|:---------|:-----|
|
280 |
+
| Word count | 9 | 247.2638 | 2089 |
|
281 |
+
|
282 |
+
| Label | Training Sample Count |
|
283 |
+
|:------|:----------------------|
|
284 |
+
| neg | 913 |
|
285 |
+
| obj | 1216 |
|
286 |
+
| pos | 911 |
|
287 |
+
|
288 |
+
### Training Hyperparameters
|
289 |
+
- batch_size: (8, 8)
|
290 |
+
- num_epochs: (5, 5)
|
291 |
+
- max_steps: -1
|
292 |
+
- sampling_strategy: oversampling
|
293 |
+
- num_iterations: 1
|
294 |
+
- body_learning_rate: (2e-05, 2e-05)
|
295 |
+
- head_learning_rate: 2e-05
|
296 |
+
- loss: CosineSimilarityLoss
|
297 |
+
- distance_metric: cosine_distance
|
298 |
+
- margin: 0.25
|
299 |
+
- end_to_end: False
|
300 |
+
- use_amp: False
|
301 |
+
- warmup_proportion: 0.1
|
302 |
+
- seed: 42
|
303 |
+
- eval_max_steps: -1
|
304 |
+
- load_best_model_at_end: False
|
305 |
+
|
306 |
+
### Training Results
|
307 |
+
| Epoch | Step | Training Loss | Validation Loss |
|
308 |
+
|:------:|:----:|:-------------:|:---------------:|
|
309 |
+
| 0.0013 | 1 | 0.3703 | - |
|
310 |
+
| 0.0658 | 50 | 0.3145 | - |
|
311 |
+
| 0.1316 | 100 | 0.1839 | - |
|
312 |
+
| 0.1974 | 150 | 0.2558 | - |
|
313 |
+
| 0.2632 | 200 | 0.2683 | - |
|
314 |
+
| 0.3289 | 250 | 0.1572 | - |
|
315 |
+
| 0.3947 | 300 | 0.1953 | - |
|
316 |
+
| 0.4605 | 350 | 0.171 | - |
|
317 |
+
| 0.5263 | 400 | 0.2326 | - |
|
318 |
+
| 0.5921 | 450 | 0.1762 | - |
|
319 |
+
| 0.6579 | 500 | 0.2818 | - |
|
320 |
+
| 0.7237 | 550 | 0.2733 | - |
|
321 |
+
| 0.7895 | 600 | 0.195 | - |
|
322 |
+
| 0.8553 | 650 | 0.2104 | - |
|
323 |
+
| 0.9211 | 700 | 0.2124 | - |
|
324 |
+
| 0.9868 | 750 | 0.0818 | - |
|
325 |
+
| 1.0526 | 800 | 0.1046 | - |
|
326 |
+
| 1.1184 | 850 | 0.1633 | - |
|
327 |
+
| 1.1842 | 900 | 0.3207 | - |
|
328 |
+
| 1.25 | 950 | 0.2703 | - |
|
329 |
+
| 1.3158 | 1000 | 0.1934 | - |
|
330 |
+
| 1.3816 | 1050 | 0.2547 | - |
|
331 |
+
| 1.4474 | 1100 | 0.0933 | - |
|
332 |
+
| 1.5132 | 1150 | 0.2102 | - |
|
333 |
+
| 1.5789 | 1200 | 0.0699 | - |
|
334 |
+
| 1.6447 | 1250 | 0.1778 | - |
|
335 |
+
| 1.7105 | 1300 | 0.1796 | - |
|
336 |
+
| 1.7763 | 1350 | 0.0221 | - |
|
337 |
+
| 1.8421 | 1400 | 0.2154 | - |
|
338 |
+
| 1.9079 | 1450 | 0.1683 | - |
|
339 |
+
| 1.9737 | 1500 | 0.3096 | - |
|
340 |
+
| 2.0395 | 1550 | 0.201 | - |
|
341 |
+
| 2.1053 | 1600 | 0.1954 | - |
|
342 |
+
| 2.1711 | 1650 | 0.2301 | - |
|
343 |
+
| 2.2368 | 1700 | 0.1141 | - |
|
344 |
+
| 2.3026 | 1750 | 0.1949 | - |
|
345 |
+
| 2.3684 | 1800 | 0.164 | - |
|
346 |
+
| 2.4342 | 1850 | 0.2307 | - |
|
347 |
+
| 2.5 | 1900 | 0.1912 | - |
|
348 |
+
| 2.5658 | 1950 | 0.2349 | - |
|
349 |
+
| 2.6316 | 2000 | 0.0922 | - |
|
350 |
+
| 2.6974 | 2050 | 0.0702 | - |
|
351 |
+
| 2.7632 | 2100 | 0.1089 | - |
|
352 |
+
| 2.8289 | 2150 | 0.1711 | - |
|
353 |
+
| 2.8947 | 2200 | 0.1432 | - |
|
354 |
+
| 2.9605 | 2250 | 0.2739 | - |
|
355 |
+
| 3.0263 | 2300 | 0.1889 | - |
|
356 |
+
| 3.0921 | 2350 | 0.1036 | - |
|
357 |
+
| 3.1579 | 2400 | 0.1372 | - |
|
358 |
+
| 3.2237 | 2450 | 0.028 | - |
|
359 |
+
| 3.2895 | 2500 | 0.1739 | - |
|
360 |
+
| 3.3553 | 2550 | 0.142 | - |
|
361 |
+
| 3.4211 | 2600 | 0.0838 | - |
|
362 |
+
| 3.4868 | 2650 | 0.0657 | - |
|
363 |
+
| 3.5526 | 2700 | 0.0054 | - |
|
364 |
+
| 3.6184 | 2750 | 0.0426 | - |
|
365 |
+
| 3.6842 | 2800 | 0.1974 | - |
|
366 |
+
| 3.75 | 2850 | 0.0279 | - |
|
367 |
+
| 3.8158 | 2900 | 0.1326 | - |
|
368 |
+
| 3.8816 | 2950 | 0.1614 | - |
|
369 |
+
| 3.9474 | 3000 | 0.1251 | - |
|
370 |
+
| 4.0132 | 3050 | 0.1174 | - |
|
371 |
+
| 4.0789 | 3100 | 0.1948 | - |
|
372 |
+
| 4.1447 | 3150 | 0.0555 | - |
|
373 |
+
| 4.2105 | 3200 | 0.0064 | - |
|
374 |
+
| 4.2763 | 3250 | 0.064 | - |
|
375 |
+
| 4.3421 | 3300 | 0.0013 | - |
|
376 |
+
| 4.4079 | 3350 | 0.135 | - |
|
377 |
+
| 4.4737 | 3400 | 0.0574 | - |
|
378 |
+
| 4.5395 | 3450 | 0.174 | - |
|
379 |
+
| 4.6053 | 3500 | 0.2199 | - |
|
380 |
+
| 4.6711 | 3550 | 0.387 | - |
|
381 |
+
| 4.7368 | 3600 | 0.114 | - |
|
382 |
+
| 4.8026 | 3650 | 0.0853 | - |
|
383 |
+
| 4.8684 | 3700 | 0.0325 | - |
|
384 |
+
| 4.9342 | 3750 | 0.019 | - |
|
385 |
+
| 5.0 | 3800 | 0.0572 | - |
|
386 |
+
| 0.0013 | 1 | 0.1435 | - |
|
387 |
+
| 0.0658 | 50 | 0.0969 | - |
|
388 |
+
| 0.1316 | 100 | 0.1085 | - |
|
389 |
+
| 0.1974 | 150 | 0.0271 | - |
|
390 |
+
| 0.2632 | 200 | 0.0138 | - |
|
391 |
+
| 0.3289 | 250 | 0.058 | - |
|
392 |
+
| 0.3947 | 300 | 0.1205 | - |
|
393 |
+
| 0.4605 | 350 | 0.0788 | - |
|
394 |
+
| 0.5263 | 400 | 0.1449 | - |
|
395 |
+
| 0.5921 | 450 | 0.0383 | - |
|
396 |
+
| 0.6579 | 500 | 0.0338 | - |
|
397 |
+
| 0.7237 | 550 | 0.1253 | - |
|
398 |
+
| 0.7895 | 600 | 0.069 | - |
|
399 |
+
| 0.8553 | 650 | 0.104 | - |
|
400 |
+
| 0.9211 | 700 | 0.0462 | - |
|
401 |
+
| 0.9868 | 750 | 0.1975 | - |
|
402 |
+
| 1.0526 | 800 | 0.0241 | - |
|
403 |
+
| 1.1184 | 850 | 0.0426 | - |
|
404 |
+
| 1.1842 | 900 | 0.0519 | - |
|
405 |
+
| 1.25 | 950 | 0.0815 | - |
|
406 |
+
| 1.3158 | 1000 | 0.1839 | - |
|
407 |
+
| 1.3816 | 1050 | 0.0198 | - |
|
408 |
+
| 1.4474 | 1100 | 0.0128 | - |
|
409 |
+
| 1.5132 | 1150 | 0.1645 | - |
|
410 |
+
| 1.5789 | 1200 | 0.0019 | - |
|
411 |
+
| 1.6447 | 1250 | 0.0557 | - |
|
412 |
+
| 1.7105 | 1300 | 0.0098 | - |
|
413 |
+
| 1.7763 | 1350 | 0.001 | - |
|
414 |
+
| 1.8421 | 1400 | 0.1557 | - |
|
415 |
+
| 1.9079 | 1450 | 0.1286 | - |
|
416 |
+
| 1.9737 | 1500 | 0.094 | - |
|
417 |
+
| 2.0395 | 1550 | 0.0059 | - |
|
418 |
+
| 2.1053 | 1600 | 0.0227 | - |
|
419 |
+
| 2.1711 | 1650 | 0.0899 | - |
|
420 |
+
| 2.2368 | 1700 | 0.0053 | - |
|
421 |
+
| 2.3026 | 1750 | 0.0021 | - |
|
422 |
+
| 2.3684 | 1800 | 0.0114 | - |
|
423 |
+
| 2.4342 | 1850 | 0.1163 | - |
|
424 |
+
| 2.5 | 1900 | 0.0959 | - |
|
425 |
+
| 2.5658 | 1950 | 0.0252 | - |
|
426 |
+
| 2.6316 | 2000 | 0.0921 | - |
|
427 |
+
| 2.6974 | 2050 | 0.1159 | - |
|
428 |
+
| 2.7632 | 2100 | 0.0026 | - |
|
429 |
+
| 2.8289 | 2150 | 0.1211 | - |
|
430 |
+
| 2.8947 | 2200 | 0.1843 | - |
|
431 |
+
| 2.9605 | 2250 | 0.0014 | - |
|
432 |
+
| 3.0263 | 2300 | 0.0085 | - |
|
433 |
+
| 3.0921 | 2350 | 0.0839 | - |
|
434 |
+
| 3.1579 | 2400 | 0.2372 | - |
|
435 |
+
| 3.2237 | 2450 | 0.0213 | - |
|
436 |
+
| 3.2895 | 2500 | 0.0155 | - |
|
437 |
+
| 3.3553 | 2550 | 0.1128 | - |
|
438 |
+
| 3.4211 | 2600 | 0.0945 | - |
|
439 |
+
| 3.4868 | 2650 | 0.0917 | - |
|
440 |
+
| 3.5526 | 2700 | 0.0011 | - |
|
441 |
+
| 3.6184 | 2750 | 0.0024 | - |
|
442 |
+
| 3.6842 | 2800 | 0.0044 | - |
|
443 |
+
| 3.75 | 2850 | 0.121 | - |
|
444 |
+
| 3.8158 | 2900 | 0.0056 | - |
|
445 |
+
| 3.8816 | 2950 | 0.003 | - |
|
446 |
+
| 3.9474 | 3000 | 0.0899 | - |
|
447 |
+
| 4.0132 | 3050 | 0.0157 | - |
|
448 |
+
| 4.0789 | 3100 | 0.1188 | - |
|
449 |
+
| 4.1447 | 3150 | 0.001 | - |
|
450 |
+
| 4.2105 | 3200 | 0.0222 | - |
|
451 |
+
| 4.2763 | 3250 | 0.1209 | - |
|
452 |
+
| 4.3421 | 3300 | 0.1085 | - |
|
453 |
+
| 4.4079 | 3350 | 0.0054 | - |
|
454 |
+
| 4.4737 | 3400 | 0.0009 | - |
|
455 |
+
| 4.5395 | 3450 | 0.0015 | - |
|
456 |
+
| 4.6053 | 3500 | 0.003 | - |
|
457 |
+
| 4.6711 | 3550 | 0.0009 | - |
|
458 |
+
| 4.7368 | 3600 | 0.0003 | - |
|
459 |
+
| 4.8026 | 3650 | 0.0009 | - |
|
460 |
+
| 4.8684 | 3700 | 0.03 | - |
|
461 |
+
| 4.9342 | 3750 | 0.1206 | - |
|
462 |
+
| 5.0 | 3800 | 0.0003 | - |
|
463 |
+
| 0.0013 | 1 | 0.2045 | - |
|
464 |
+
| 0.0658 | 50 | 0.0078 | - |
|
465 |
+
| 0.1316 | 100 | 0.0087 | - |
|
466 |
+
| 0.1974 | 150 | 0.0386 | - |
|
467 |
+
| 0.2632 | 200 | 0.1015 | - |
|
468 |
+
| 0.3289 | 250 | 0.0022 | - |
|
469 |
+
| 0.3947 | 300 | 0.0291 | - |
|
470 |
+
| 0.4605 | 350 | 0.0013 | - |
|
471 |
+
| 0.5263 | 400 | 0.0022 | - |
|
472 |
+
| 0.5921 | 450 | 0.1324 | - |
|
473 |
+
| 0.6579 | 500 | 0.113 | - |
|
474 |
+
| 0.7237 | 550 | 0.0011 | - |
|
475 |
+
| 0.7895 | 600 | 0.1723 | - |
|
476 |
+
| 0.8553 | 650 | 0.0049 | - |
|
477 |
+
| 0.9211 | 700 | 0.206 | - |
|
478 |
+
| 0.9868 | 750 | 0.1683 | - |
|
479 |
+
| 1.0526 | 800 | 0.0954 | - |
|
480 |
+
| 1.1184 | 850 | 0.018 | - |
|
481 |
+
| 1.1842 | 900 | 0.1854 | - |
|
482 |
+
| 1.25 | 950 | 0.0342 | - |
|
483 |
+
| 1.3158 | 1000 | 0.0015 | - |
|
484 |
+
| 1.3816 | 1050 | 0.0062 | - |
|
485 |
+
| 1.4474 | 1100 | 0.1187 | - |
|
486 |
+
| 1.5132 | 1150 | 0.0048 | - |
|
487 |
+
| 1.5789 | 1200 | 0.0011 | - |
|
488 |
+
| 1.6447 | 1250 | 0.002 | - |
|
489 |
+
| 1.7105 | 1300 | 0.092 | - |
|
490 |
+
| 1.7763 | 1350 | 0.1245 | - |
|
491 |
+
| 1.8421 | 1400 | 0.0009 | - |
|
492 |
+
| 1.9079 | 1450 | 0.1185 | - |
|
493 |
+
| 1.9737 | 1500 | 0.0017 | - |
|
494 |
+
| 2.0395 | 1550 | 0.008 | - |
|
495 |
+
| 2.1053 | 1600 | 0.0049 | - |
|
496 |
+
| 2.1711 | 1650 | 0.0083 | - |
|
497 |
+
| 2.2368 | 1700 | 0.0026 | - |
|
498 |
+
| 2.3026 | 1750 | 0.0081 | - |
|
499 |
+
| 2.3684 | 1800 | 0.0036 | - |
|
500 |
+
| 2.4342 | 1850 | 0.0016 | - |
|
501 |
+
| 2.5 | 1900 | 0.0017 | - |
|
502 |
+
| 2.5658 | 1950 | 0.0014 | - |
|
503 |
+
| 2.6316 | 2000 | 0.0017 | - |
|
504 |
+
| 2.6974 | 2050 | 0.002 | - |
|
505 |
+
| 2.7632 | 2100 | 0.1022 | - |
|
506 |
+
| 2.8289 | 2150 | 0.0004 | - |
|
507 |
+
| 2.8947 | 2200 | 0.0007 | - |
|
508 |
+
| 2.9605 | 2250 | 0.0794 | - |
|
509 |
+
| 3.0263 | 2300 | 0.0183 | - |
|
510 |
+
| 3.0921 | 2350 | 0.0377 | - |
|
511 |
+
| 3.1579 | 2400 | 0.029 | - |
|
512 |
+
| 3.2237 | 2450 | 0.0003 | - |
|
513 |
+
| 3.2895 | 2500 | 0.0961 | - |
|
514 |
+
| 3.3553 | 2550 | 0.0008 | - |
|
515 |
+
| 3.4211 | 2600 | 0.0873 | - |
|
516 |
+
| 3.4868 | 2650 | 0.0501 | - |
|
517 |
+
| 3.5526 | 2700 | 0.0029 | - |
|
518 |
+
| 3.6184 | 2750 | 0.0008 | - |
|
519 |
+
| 3.6842 | 2800 | 0.0004 | - |
|
520 |
+
| 3.75 | 2850 | 0.0011 | - |
|
521 |
+
| 3.8158 | 2900 | 0.0518 | - |
|
522 |
+
| 3.8816 | 2950 | 0.0002 | - |
|
523 |
+
| 3.9474 | 3000 | 0.1115 | - |
|
524 |
+
| 4.0132 | 3050 | 0.0129 | - |
|
525 |
+
| 4.0789 | 3100 | 0.0005 | - |
|
526 |
+
| 4.1447 | 3150 | 0.0012 | - |
|
527 |
+
| 4.2105 | 3200 | 0.1086 | - |
|
528 |
+
| 4.2763 | 3250 | 0.0199 | - |
|
529 |
+
| 4.3421 | 3300 | 0.0004 | - |
|
530 |
+
| 4.4079 | 3350 | 0.0001 | - |
|
531 |
+
| 4.4737 | 3400 | 0.0832 | - |
|
532 |
+
| 4.5395 | 3450 | 0.0003 | - |
|
533 |
+
| 4.6053 | 3500 | 0.0041 | - |
|
534 |
+
| 4.6711 | 3550 | 0.1146 | - |
|
535 |
+
| 4.7368 | 3600 | 0.0027 | - |
|
536 |
+
| 4.8026 | 3650 | 0.0002 | - |
|
537 |
+
| 4.8684 | 3700 | 0.0544 | - |
|
538 |
+
| 4.9342 | 3750 | 0.0002 | - |
|
539 |
+
| 5.0 | 3800 | 0.0046 | - |
|
540 |
+
|
541 |
+
### Framework Versions
|
542 |
+
- Python: 3.10.12
|
543 |
+
- SetFit: 1.0.1
|
544 |
+
- Sentence Transformers: 2.2.2
|
545 |
+
- Transformers: 4.35.2
|
546 |
+
- PyTorch: 2.1.0+cu121
|
547 |
+
- Datasets: 2.15.0
|
548 |
+
- Tokenizers: 0.15.0
|
549 |
+
|
550 |
+
## Citation
|
551 |
+
|
552 |
+
### BibTeX
|
553 |
+
```bibtex
|
554 |
+
@article{https://doi.org/10.48550/arxiv.2209.11055,
|
555 |
+
doi = {10.48550/ARXIV.2209.11055},
|
556 |
+
url = {https://arxiv.org/abs/2209.11055},
|
557 |
+
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
|
558 |
+
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
|
559 |
+
title = {Efficient Few-Shot Learning Without Prompts},
|
560 |
+
publisher = {arXiv},
|
561 |
+
year = {2022},
|
562 |
+
copyright = {Creative Commons Attribution 4.0 International}
|
563 |
+
}
|
564 |
+
```
|
565 |
+
|
566 |
+
<!--
|
567 |
+
## Glossary
|
568 |
+
|
569 |
+
*Clearly define terms in order to be accessible across audiences.*
|
570 |
+
-->
|
571 |
+
|
572 |
+
<!--
|
573 |
+
## Model Card Authors
|
574 |
+
|
575 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
576 |
+
-->
|
577 |
+
|
578 |
+
<!--
|
579 |
+
## Model Card Contact
|
580 |
+
|
581 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
582 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,29 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "/root/.cache/torch/sentence_transformers/sentence-transformers_paraphrase-multilingual-mpnet-base-v2/",
|
3 |
+
"architectures": [
|
4 |
+
"XLMRobertaModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"bos_token_id": 0,
|
8 |
+
"classifier_dropout": null,
|
9 |
+
"eos_token_id": 2,
|
10 |
+
"gradient_checkpointing": false,
|
11 |
+
"hidden_act": "gelu",
|
12 |
+
"hidden_dropout_prob": 0.1,
|
13 |
+
"hidden_size": 768,
|
14 |
+
"initializer_range": 0.02,
|
15 |
+
"intermediate_size": 3072,
|
16 |
+
"layer_norm_eps": 1e-05,
|
17 |
+
"max_position_embeddings": 514,
|
18 |
+
"model_type": "xlm-roberta",
|
19 |
+
"num_attention_heads": 12,
|
20 |
+
"num_hidden_layers": 12,
|
21 |
+
"output_past": true,
|
22 |
+
"pad_token_id": 1,
|
23 |
+
"position_embedding_type": "absolute",
|
24 |
+
"torch_dtype": "float32",
|
25 |
+
"transformers_version": "4.35.2",
|
26 |
+
"type_vocab_size": 1,
|
27 |
+
"use_cache": true,
|
28 |
+
"vocab_size": 250002
|
29 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,7 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "2.0.0",
|
4 |
+
"transformers": "4.7.0",
|
5 |
+
"pytorch": "1.9.0+cu102"
|
6 |
+
}
|
7 |
+
}
|
config_setfit.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"labels": null,
|
3 |
+
"normalize_embeddings": false
|
4 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:2dec8840be2362e6cb0f79600172b0db71b297c2a64ddcf64200d4efa3169a92
|
3 |
+
size 1112197096
|
model_head.pkl
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:51a5c8ed71b75b941b78e9522a2eb0f224ff550b0d49f94953ed3fca85d2f94f
|
3 |
+
size 19311
|
modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
}
|
14 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 128,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
sentencepiece.bpe.model
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
|
3 |
+
size 5069051
|
special_tokens_map.json
ADDED
@@ -0,0 +1,15 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": "<s>",
|
3 |
+
"cls_token": "<s>",
|
4 |
+
"eos_token": "</s>",
|
5 |
+
"mask_token": {
|
6 |
+
"content": "<mask>",
|
7 |
+
"lstrip": true,
|
8 |
+
"normalized": false,
|
9 |
+
"rstrip": false,
|
10 |
+
"single_word": false
|
11 |
+
},
|
12 |
+
"pad_token": "<pad>",
|
13 |
+
"sep_token": "</s>",
|
14 |
+
"unk_token": "<unk>"
|
15 |
+
}
|
tokenizer.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:fa685fc160bbdbab64058d4fc91b60e62d207e8dc60b9af5c002c5ab946ded00
|
3 |
+
size 17083009
|
tokenizer_config.json
ADDED
@@ -0,0 +1,61 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"250001": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": true,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"bos_token": "<s>",
|
45 |
+
"clean_up_tokenization_spaces": true,
|
46 |
+
"cls_token": "<s>",
|
47 |
+
"eos_token": "</s>",
|
48 |
+
"mask_token": "<mask>",
|
49 |
+
"max_length": 128,
|
50 |
+
"model_max_length": 512,
|
51 |
+
"pad_to_multiple_of": null,
|
52 |
+
"pad_token": "<pad>",
|
53 |
+
"pad_token_type_id": 0,
|
54 |
+
"padding_side": "right",
|
55 |
+
"sep_token": "</s>",
|
56 |
+
"stride": 0,
|
57 |
+
"tokenizer_class": "XLMRobertaTokenizer",
|
58 |
+
"truncation_side": "right",
|
59 |
+
"truncation_strategy": "longest_first",
|
60 |
+
"unk_token": "<unk>"
|
61 |
+
}
|