gentilrenard's picture
Update README.md
45e1196 verified
metadata
license: apache-2.0
tags:
  - feature-extraction
  - text-classification
  - sentence-transformers
  - setfit
pipeline_tag: feature-extraction
datasets:
  - gentilrenard/lmd_ukraine_comments
metrics:
  - accuracy
base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
model-index:
  - name: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
    results:
      - task:
          type: feature-extraction
          name: Text Classification
        dataset:
          name: gentilrenard/lmd_ukraine_comments
          type: gentilrenard/lmd_ukraine_comments
          split: test
        metrics:
          - type: accuracy
            value: 0.762589928057554
            name: Accuracy

SetFit with sentence-transformers/paraphrase-multilingual-mpnet-base-v2

This is a SetFit model trained on the gentilrenard/lmd_ukraine_comments dataset that can be used for Text Classification. This SetFit model uses sentence-transformers/paraphrase-multilingual-mpnet-base-v2 as the Sentence Transformer embedding model. A LogisticRegression instance is used for classification.

The model has been trained using an efficient few-shot learning technique that involves:

  1. Fine-tuning a Sentence Transformer with contrastive learning.
  2. Training a classification head with features from the fine-tuned Sentence Transformer.

Model Details

Model Description

Model Sources

Model Labels

Label Examples
2
  • "Waouh on a failli avoir un article positif (pas seulement sur Macron, mais positif sur la France). Heureusement si vous voulez du vrai positif il y a toute la presse étrangère en ce moment. On pourrait aussi parler du paquet climat voté la semaine dernière, et qui aura beaucoup plus d'impact que toutes les primes de rénovations et autres éoliennes. Mais non, ce serait être positif et souvenez vous, tout va mal, nous sommes foutus."
  • "Pourriez-vous lire l'article? Cela vous éviterait de poser des questions inutiles."
  • 'Les pays qui ne suivent pas les USA ont très majoritairement sont dirigés par un apprenti ou un chef boucher.'
0
  • 'Les "Savonarole" finissent toujours sur le bûcher. Quant on traite ses frères devenus ses adversaires, enfin ses ennemis, d'abord de "nazis" et désormais de "Satan", ou bien on a complètement perdu la raison, ou bien on s'inscrit dans une guerre de religion ou fermente le pire fanatisme religieux. Cette guerre pan-slave est donc avant tout une guerre schismatique entre sectes orthodoxes comme on les cultivait au Haut Moyen-Age... mille ans avant la chute de Byzance! A propos de christianisme, on attendrait un message "oecuménique" de la part du Pape de Rome en vue de remonter les bretelles de son "confrère" de Moscou, plutôt qu'un rappel des atrocités du golodomor des années 30 qui ne fait pas vraiment avancer la question actuelle. Faut-il rappeler à François que le sujet, ce ne sont pas les crimes de Staline, mais ceux, hic et nunc, de Poutine qui certes, ne comptabilise plus les divisions du Vatican, mais qui aurait besoin d'une bonne claque morale universelle?'
  • "Les russes ne détruiront ni New-York, ni Munich. Cela serait la fin de la Russie (et probablement au passage de l'Occident), et ils le savent. Les russes n'attaqueront pas un pays de l'OTAN avec des moyens conventionnels. à 1 contre 8, 1 contre 20 en termes de PIB et de budget militaire, ils se feraient massacrer, et ils le savent. On a vu ces derniers mois ce que valait véritablement l'armée russe : pas de quoi effrayer l'OTAN. Ils leur reste... une très grande bouche avec laquelle ils peuvent hurler, menacer, se plaindre. Laissons les dire, et envoyons les chars. Et le reste. Cette folie doit cesser - et pas avec la défaite de l'Ukraine, qui serait la défaite de toutes les démocraties attachées à l'état de droit."
  • '« C’est l’affaire des russes »? C’est donc votre affaire en qualité de propagandiste stipendié par le Kremlin ? Pouvez vous vous occuper de vos affaires Ricardo et cessez de vous occuper des « occidentaux » svp'
1
  • "Salandre : les documents dont vous faîtes état montrent toujours la même chose, à savoir toujours les mêmes carcasses. 1300 camions (soit une colonne d'au moins 50km) auraient été détruits. Où sont-ils donc? C'est toujours une poignée des mêmes camions qui est montrée. Un millier de tanks auraient été également détruits ce qui donne un volume de l'ordre 90 000 m3 de ferraille. J'attends qu'on montre leurs carcasses. Et le tout à l'avenant... CORRECTEUR : en démontant la couverture de cette guerre, je m'occupe justement d'une affaire qui me concerne. Il ne vous revient pas de décréter ce qui me concerne ou pas. C'est ma stricte affaire. Et si ce que je dis vous dérange vous avez l'entière liberté de passer votre chemin sans lire."
  • 'Vous êtes naif si vous croyez que seuls les Russes ont ce genre de comportement en tant de guerre...vous devez être de ceux qui croient en la guerre "propre" que les Occidentaux prétendre faire depuis 40 ans (parfois avec les Russes comme alliés d'ailleurs).'
  • 'Voilà donc un reportage qui, peut-être un peu "à l'insu de son plein gré", confirme que l'Ukraine actuelle est une fiction, stricte création soviétique. Il y a en fait trois Ukraine, la russophone qui est russe et veut rejoindre la mère-patrie, la polonaise et la austro-hongroise. Quant à l'ukrainien, c'est un "patois" de russe (moi je préfère l'expression langue dérivée du russe, mais aux racines foncièrement russes, comme ma traductrice en Crimée me l'avait expliqué, explication que j'ai faîte mienne n'ayant pas les connaissances linguistiques pour la contester). Les frontières ne sont pas création divine. Elles ne sont jamais définitives. Par exemple, la dernière modification des frontières françaises remonte à l'indépendance des Comores. Jusqu'en 1962, l'Algérie était trois départements français. Et peut-être qu'un jour la Nouvelle Calédonie ne sera plus française, que la Guyane sera indépendante, et ainsi de suite...'

Evaluation

Metrics

Label Accuracy
all 0.7626

Uses

Direct Use for Inference

First install the SetFit library:

pip install setfit

Then you can load this model and run inference.

from setfit import SetFitModel

# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("gentilrenard/paraphrase-multilingual-mpnet-base-v2_setfit-lemonde-french")
# Run inference
preds = model("Pour Yves Pozzo di Borgo, c'est une tradition familliale. Charles André Pozzo di Borgo fut ambassadeur de la Russie.")

Training Details

Training Set Metrics

Training set Min Median Max
Word count 1 63.1703 180
Label Training Sample Count
0 115
1 82
2 126

Training Hyperparameters

  • batch_size: (32, 32)
  • num_epochs: (2, 2)
  • max_steps: 2350
  • sampling_strategy: oversampling
  • body_learning_rate: (3e-07, 3e-07)
  • head_learning_rate: 0.01
  • loss: CosineSimilarityLoss
  • distance_metric: cosine_distance
  • margin: 0.25
  • end_to_end: False
  • use_amp: False
  • warmup_proportion: 0.1
  • seed: 42
  • run_name: setfit_optimized_v4
  • eval_max_steps: -1
  • load_best_model_at_end: True

Training Results

Epoch Step Training Loss Validation Loss
0.0005 1 0.243 -
0.0234 50 0.2654 0.2636
0.0467 100 0.2942 0.2611
0.0701 150 0.2462 0.2572
0.0934 200 0.2562 0.2546
0.1168 250 0.2445 0.2505
0.1401 300 0.2206 0.2473
0.1635 350 0.2435 0.2453
0.1868 400 0.1985 0.2425
0.2102 450 0.265 0.2411
0.2335 500 0.2408 0.2387
0.2569 550 0.1986 0.2369
0.2802 600 0.2071 0.2351
0.3036 650 0.2119 0.2341
0.3270 700 0.2558 0.2314
0.3503 750 0.215 0.2292
0.3737 800 0.2286 0.2271
0.3970 850 0.2495 0.2256
0.4204 900 0.1844 0.2237
0.4437 950 0.2529 0.2216
0.4671 1000 0.2074 0.2202
0.4904 1050 0.1753 0.2188
0.5138 1100 0.2216 0.2169
0.5371 1150 0.1878 0.2153
0.5605 1200 0.1862 0.2142
0.5838 1250 0.1682 0.2129
0.6072 1300 0.2425 0.2116
0.6305 1350 0.174 0.211
0.6539 1400 0.1641 0.209
0.6773 1450 0.2014 0.2094
0.7006 1500 0.1423 0.2083
0.7240 1550 0.204 0.2078
0.7473 1600 0.2265 0.2075
0.7707 1650 0.1812 0.2063
0.7940 1700 0.1804 0.2058
0.8174 1750 0.1658 0.2055
0.8407 1800 0.1374 0.2064
0.8641 1850 0.1316 0.2057
0.8874 1900 0.1566 0.205
0.9108 1950 0.2053 0.2035
0.9341 2000 0.1436 0.2046
0.9575 2050 0.2436 0.2039
0.9809 2100 0.1999 0.2038
1.0042 2150 0.1459 0.2042
1.0276 2200 0.1669 0.2044
1.0509 2250 0.1705 0.2042
1.0743 2300 0.1509 0.2038
1.0976 2350 0.1382 0.2036
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.10.12
  • SetFit: 1.0.3
  • Sentence Transformers: 2.3.0
  • Transformers: 4.36.0
  • PyTorch: 2.0.0
  • Datasets: 2.16.1
  • Tokenizers: 0.15.0

Citation

BibTeX

@article{https://doi.org/10.48550/arxiv.2209.11055,
    doi = {10.48550/ARXIV.2209.11055},
    url = {https://arxiv.org/abs/2209.11055},
    author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
    keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
    title = {Efficient Few-Shot Learning Without Prompts},
    publisher = {arXiv},
    year = {2022},
    copyright = {Creative Commons Attribution 4.0 International}
}