---
base_model: jangedoo/all-MiniLM-L6-v2-nepali
datasets:
- wikimedia/wikipedia
- momo22/eng2nep
- wisewizer/nepali-news
- NepaliAI/Nepali-Health-Fact
language:
- en
- ne
library_name: sentence-transformers
metrics:
- cosine_accuracy@1
- cosine_accuracy@3
- cosine_accuracy@5
- cosine_accuracy@10
- cosine_precision@1
- cosine_precision@3
- cosine_precision@5
- cosine_precision@10
- cosine_recall@1
- cosine_recall@3
- cosine_recall@5
- cosine_recall@10
- cosine_ndcg@10
- cosine_mrr@10
- cosine_mrr@20
- cosine_mrr@50
- cosine_map@100
pipeline_tag: sentence-similarity
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:850049
- loss:MultipleNegativesSymmetricRankingLoss
- loss:MSELoss
widget:
- source_sentence: मैले मेरो तल्लो बायाँ पछाडि र पेटमा गम्भीर दुखाइको अनुभव गरिरहेको
छु। मैले 20 वर्ष पहिले मेरो दाईलाई मेरो देब्रे मृगौला दान गरें, त्यसैले मलाई यो
मृगौला संक्रमण हो जस्तो लाग्दैन। मेरो तल्लो बायाँ पेटको एक्स-रे र बिरालोको स्क्यान
फेरि स्पष्ट आयो, तर मेरो डाक्टरलाई अब के गर्ने थाहा छैन।
sentences:
- '- बाँझोपन धेरै कारण हुन सक्छ
- फलोपियन ट्युब खुल्ला हुनुको मतलब सधैं उर्वर हुनु होइन
- एउटा खुला र स्वस्थ ट्यूबले गर्भधारणको सम्भावना बढाउँछ
- अन्य बांझपन कारणहरू अस्वीकार गर्न परीक्षणहरूको लागि स्त्री रोग विशेषज्ञ खोज्नुहोस्
- अप्रभावी यौन सम्पर्क वा हार्मोनल समस्याहरू जस्ता कारकहरूले प्रजनन क्षमतालाई
असर गर्न सक्छ
- यौनसम्पर्क पछि मोहम्मदको स्थितिमा सुत्दा एन्टभर्टेड गर्भाशय ग्रीवालाई मद्दत
गर्न सकिन्छ
- प्रजनन क्षमता सुधार गर्न अन्तर्निहित मुद्दाहरूलाई सम्बोधन गर्नु महत्त्वपूर्ण
छ।'
- 'तपाईंको चिन्तालाई सम्बोधन गर्न, यहाँ केहि सुझावहरू छन्:
1. यूरिया र क्रिएटिनिन स्तरहरू मापनको साथसाथै, पूर्ण पिसाब जाँच गराउने बारे विचार
गर्नुहोस्।
2. केही मृगौला दाताहरूले समयको साथमा मृगौलाको कार्यक्षमतामा गिरावटको अनुभव गर्न
सक्छन् र भविष्यमा डायलासिस आवश्यक हुन सक्छ।
3. तपाईको मिर्गौलाको स्वास्थ्यको मूल्याङ्कन गर्नु महत्त्वपूर्ण छ, यदि तपाई अहिले
स्वस्थ महसुस गर्नुहुन्छ भने।
4. पिसाब नलीको संक्रमणले गर्दा पनि दुखाइ हुन सक्छ, जसलाई पिसाब संस्कृति/संवेदनशीलता
परीक्षण पछि एन्टिबायोटिकले सजिलै उपचार गर्न सकिन्छ।
5. आवश्यक निदान परीक्षणहरू गराउन र रिपोर्टहरू स्वास्थ्य सेवा पेशेवर वा च्याट प्लेटफर्म
मार्फत साझेदारी गर्न सिफारिस गरिन्छ।
6. वैकल्पिक रूपमा, तपाईं थप मार्गदर्शनको लागि आफ्नो पारिवारिक चिकित्सकसँग परामर्श
गर्न सक्नुहुन्छ।
7. तपाईलाई शुभकामना र आशा छ कि तपाईको चिन्ता सन्तोषजनक रूपमा सम्बोधन गरिएको छ।'
- पलक जैन एक भारतीय अभिनेत्री हुन्, उनले धेरै टेली चलचित्रहरूमा कार्य गरी सकेकी
छिन्। इतना करो ना मुझे प्यार, कहीं किसी रोज, दो हंसों का जोडा, दी बड्डी प्रोजेक्ट,
क्राइम पेट्रोल आदिमा उनीले कार्य गरेकी छिन् । उनीले छ वर्षको उमेरबाट अभिनयको
थालनी गरिन् ।
- source_sentence: के म मेरो अनुहारमा पिम्पल र दागहरू हटाउन मेलाग्लो जेल प्रयोग गर्न
सक्छु? मलाई धेरै वर्षदेखि निचोल्ने र छेक्ने लत लागेको छ, र अब म मेरो जीवनमा कम्तिमा
एक पटक स्पष्ट अनुहार पाउन चाहन्छु। म गोरो छाला भएको ४२ वर्षीया महिला हुँ।
sentences:
- '- छालाको चिन्ताको उपचार गर्न ग्लाइकोलिक एसिड वा सेलिसिलिक एसिड फेसवाश प्रयोग
गर्नुहोस्
- ब्ल्याकहेड्स निचोड वा छनोट नगर्नुहोस्, किनकि यसले दाग र पिग्मेन्टेसन निम्त्याउन
सक्छ
- पिम्पलको लागि क्लिन्डामाइसिन जेल र रेटिन-ए क्रिम प्रयोग गर्नुहोस्
- पिग्मेन्टेसन चिन्हहरूको लागि कमिक एसिड क्रिम प्रयोग गर्नुहोस्
- गम्भीर मुँहासेको लागि छाला विशेषज्ञसँग परामर्श गर्नुहोस्
- गम्भीर मुँहासेको लागि मौखिक एन्टिबायोटिक वा आइसोट्रेटिनोइन लिने विचार गर्नुहोस्
- तपाइँको 40 को दशक मा मुँहासे को लागी हर्मोन चक्की को आवश्यकता हुन सक्छ
- रासायनिक बोक्राले दाग, पिग्मेन्टेसन, र सक्रिय मुँहासे घावहरूमा मद्दत गर्न सक्छ
- थप उपचार विकल्पहरूको लागि छाला विशेषज्ञसँग भेटघाट गर्नुहोस्।'
- "इन्द्र कुमार गुजराल (जन्म ४ डिसेम्बर स.न्. १९१९) भारतका पूर्व प्रधानमन्त्री थिए\
\ । \n\nसन्दर्भ सामग्रीहरू\n\nयी पनि हेर्नुहोस्\n\nभारतीय राजनीतिज्ञहरू\nभारतका\
\ प्रधानमन्त्रीहरू\nभारतीय नेताहरू\nसन् २०१२ मा मृत्यु\nभारतीय हिन्दुहरू"
- '- यो उमेर समूहका लागि Piriton प्रयोग गर्नु हुँदैन।
- बालबालिकामा रुघाखोकी र रुघाखोकी सामान्यतया भाइरसको कारणले हुन्छ ।
- चिसो लक्षणहरूको लागि, तपाइँ सेटिरिजिन जस्ता एन्टि-एलर्जी औषधिहरू प्रयोग गर्न
सक्नुहुन्छ।
- नुनिलो नाक डिकन्जेस्टेन्टले भरिएको नाकमा मद्दत गर्न सक्छ।
- ज्वरोको लागि पारासिटामोल दिन सकिन्छ, तर यदि यो 100F माथि छ भने मात्र।
- ज्वरोको लागि संयोजन औषधिहरू प्रयोग नगर्नुहोस्, विशेष गरी पारासिटामोलको साथ।
- Cetirizine चिसो लक्षणहरूको लागि 0.25 mg/kg प्रत्येक 12 घण्टामा 3 दिनको लागि
प्रयोग गर्न सकिन्छ।
- सादा सलाइन नाक ड्रप नाक अवरोध को लागी प्रयोग गर्न सकिन्छ।'
- source_sentence: बेलविछवा
sentences:
- सडकको नियमित मर्मतका लागि भनेर सरकारले विभिन्न सेवा र वस्तुमार्फत् अर्बौँ रुपैयाँ
कर उठाउँछ।
- '- तपाईंको ढाडमा गाँठहरू प्रायः कीराको टोकाइ वा ब्याक्टेरियाको संक्रमणको कारणले
हुन्छ, जसले फोकाहरू निम्त्याउन सक्छ।
– तपाईलाई हाइपो थाइराइड भएको हुनाले यो समस्यासँग सम्बन्धित हुन सक्छ ।
- म तपाईंलाई थप परीक्षण र उपयुक्त उपचारको लागि आपतकालीन कोठा (ER) डाक्टरसँग परामर्श
गर्न सल्लाह दिन्छु।
- चिन्ता नगर्नुहोस्, उचित हेरचाह गर्नाले गाँठो हट्नेछ।
- उपचारमा ओभर-द-काउन्टर दुखाइ निवारकहरू (NSAIDs) र एन्टिबायोटिकहरू समावेश हुन
सक्छ।
- भविष्यमा थप प्रश्नहरू सोध्न स्वतन्त्र महसुस गर्नुहोस्, र शुभ दिन।'
- "बेलविछवा रौतहट जिल्लाको एक गाउँ विकास समिति हो । \n\nसन्दर्भ सामग्रीहरू\n\nबाह्य\
\ कडीहरू"
- source_sentence: बीबीसी अनुसन्धानपछि नेपालमा चिम्पान्जी तस्कर पक्राउ
sentences:
- '- तपाईंले महसुस गर्नुभएको दुखाइ तपाईंको रिब पिंजरामा तानिएको मांसपेशीले गर्दा
भएको थियो।
- तपाईं यार्ड मा काम गर्दा यो भयो।
- यो सामान्य मांसपेशी र हड्डी दुखाइ भएकोले चिन्ता लिनु पर्दैन।
- कुनै पनि भारी शारीरिक गतिविधिहरू नगर्नुहोस् जसले तपाईंको माथिल्लो शरीरलाई तनाव
दिन्छ।
- सुत्दा बायाँ तिर सुत्नुहोस्।
- यदि दुखाइ फिर्ता आयो भने, तपाइँ एस्पिरिन वा आइबुप्रोफेन जस्ता साधारण दुखाइ निवारक
लिन सक्नुहुन्छ।
- यी चरणहरू पछ्याउँदा तपाईंलाई राम्रो महसुस गर्न मद्दत गर्नेछ।
- यदि तपाइँसँग कुनै थप चिन्ता छ भने, हामीसँग फेरि कुराकानी गर्न नहिचकिचाउनुहोस्।'
- चिम्पान्जी तस्करीबारे गत वर्ष बीबीसी अनुसन्धानबाट भएको खुलासाका आधारमा नेपाल प्रहरीले
सो सङ्कटापन्न वन्यजन्तु तस्करी गर्ने एउटा प्रयास विफल पारिदिएको छ।
- "छिन्दवाडा जिल्ला भारतीय राज्य मध्य प्रदेशको एउटा जिल्ला हो। \n\nयो पनि हेर्नुहोस्\n\
\nमध्य प्रदेश\nभारतका जिल्लाहरू\nमध्य प्रदेशका जिल्लाहरू"
- source_sentence: अर्थवेद
sentences:
- "अर्थवेद\nचार वेदका चार उपवेद मानिन्छ-\nधनुर्वेद, \nगान्धर्ववेद, \nआयुर्वेद, र\
\ \nअर्थवेद \nपं. धनराज शास्त्रीले अर्थवेदका चार ठूला र दुइ ाना ग्रन्थको उल्लेख\
\ गरेका छन्\n\nठूला ग्रन्थ\nचार ठूला ग्रन्थ यस प्रकार छन् \n १. अर्थोपवेद– यसको\
\ श्लोक संख्या एक लाख बताइएको छ । \n २.अर्थवेद– यसको श्लोक संख्या ३० हजार बताइएको\
\ छ । \n ३. अर्थ चन्द्रोदय– यसको श्लोक संख्या २० हजार बताइएको छ ।"
- वाच्य भनेको भनाइ हो । वाक्यमा रहेका कर्ता, कर्म र क्रियामध्ये कुन भनाइ मुख्य
रहेको छ भनी छुट्याउने व्याकरणिक कोटिलाई वाच्य भनिन्छ । अर्थात् कर्ता, कर्म र
भावको बोध गराउने वाक्यलाइ वाच्य भनिन्छ ।
- "डा. फेल, डिटेक्टिभ, एन्ड अदर स्टोरिज अमेरिकन उपन्यासकार तथा लेखक जोन डिक्सन कारद्वारा\
\ लिखित लघुकथा सङ्ग्रह हो । \n\nसन्दर्भ सूची\n\nलघुकथा संग्रहहरू\nपुस्तकहरू\n\
जोन डिक्सन कारका लघुकथा संग्रहहरू"
model-index:
- name: SentenceTransformer based on jangedoo/all-MiniLM-L6-v2-nepali
results:
- task:
type: information-retrieval
name: Information Retrieval
dataset:
name: Unknown
type: unknown
metrics:
- type: cosine_accuracy@1
value: 0.5404
name: Cosine Accuracy@1
- type: cosine_accuracy@3
value: 0.6196
name: Cosine Accuracy@3
- type: cosine_accuracy@5
value: 0.654
name: Cosine Accuracy@5
- type: cosine_accuracy@10
value: 0.6962
name: Cosine Accuracy@10
- type: cosine_precision@1
value: 0.5404
name: Cosine Precision@1
- type: cosine_precision@3
value: 0.2065333333333333
name: Cosine Precision@3
- type: cosine_precision@5
value: 0.1308
name: Cosine Precision@5
- type: cosine_precision@10
value: 0.06961999999999999
name: Cosine Precision@10
- type: cosine_recall@1
value: 0.5404
name: Cosine Recall@1
- type: cosine_recall@3
value: 0.6196
name: Cosine Recall@3
- type: cosine_recall@5
value: 0.654
name: Cosine Recall@5
- type: cosine_recall@10
value: 0.6962
name: Cosine Recall@10
- type: cosine_ndcg@10
value: 0.614560612378296
name: Cosine Ndcg@10
- type: cosine_mrr@10
value: 0.5888884126984126
name: Cosine Mrr@10
- type: cosine_mrr@20
value: 0.5918181110470189
name: Cosine Mrr@20
- type: cosine_mrr@50
value: 0.5937323352722809
name: Cosine Mrr@50
- type: cosine_map@100
value: 0.5943859310752522
name: Cosine Map@100
---
# SentenceTransformer based on jangedoo/all-MiniLM-L6-v2-nepali
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) on the [momo22/eng2nep](https://huggingface.co/datasets/momo22/eng2nep), [NepaliAI/Nepali-Health-Fact](https://huggingface.co/datasets/NepaliAI/Nepali-Health-Fact), [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia), [wisewizer/nepali-news](https://huggingface.co/datasets/wisewizer/nepali-news) dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Two step approach was taken to fine-tune this model.
First I took [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) model and then made it multi-lingual (English and Nepali). The approach is describe here [Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation](https://arxiv.org/abs/2004.09813).
The basic idea is that we need a parallel corpus. In this case I took [momo22/eng2nep](https://huggingface.co/datasets/momo22/eng2nep) which contains English to Nepali sentence pairs.
Then the `sentence-transformers/all-MiniLM-L6-v2` was used to generate embeddings for English sentences.
While training, the model was fine-tuned in a way that it produces embeddings for Nepali sentences to be similar to the corresponding English embeddings. The loss function used was `MSELoss`.
Next, this new `multi-lingual` model was further fine tuned on datasets like Nepali Wikipedia articles, Nepali News, Nepali Health Q&A.
I took the `title` and `body` from those datasets and treat them as `anchor` and `positive` for computing pair-wise similarity. Specifically, the `MultipleNegativesSymmetricRankingLoss` was used.
Basically this will force the embeddings of `anchor` to be similar to `positive` and vice-versa. The negative samples are automatically mined from a batch and the objective is to make sure similarity between `anchor` and `positive` is higher than `anchor` and `negative`.
The rest of the content was generated automatically by sentence-transformers library.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [jangedoo/all-MiniLM-L6-v2-nepali](https://huggingface.co/jangedoo/all-MiniLM-L6-v2-nepali)
- **Maximum Sequence Length:** 256 tokens
- **Output Dimensionality:** 384 tokens
- **Similarity Function:** Cosine Similarity
- **Training Dataset:**
- [momo22/eng2nep](https://huggingface.co/datasets/momo22/eng2nep)
- [NepaliAI/Nepali-Health-Fact](https://huggingface.co/datasets/NepaliAI/Nepali-Health-Fact)
- [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia)
- [wisewizer/nepali-news](https://huggingface.co/datasets/wisewizer/nepali-news)
- **Languages:** en, ne
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("jangedoo/all-MiniLM-L6-v2-nepali")
# Run inference
sentences = [
'अर्थवेद',
'अर्थवेद\nचार वेदका चार उपवेद मानिन्छ-\nधनुर्वेद, \nगान्धर्ववेद, \nआयुर्वेद, र \nअर्थवेद \nपं. धनराज शास्त्रीले अर्थवेदका चार ठूला र दुइ ाना ग्रन्थको उल्लेख गरेका छन्\n\nठूला ग्रन्थ\nचार ठूला ग्रन्थ यस प्रकार छन् \n १. अर्थोपवेद– यसको श्लोक संख्या एक लाख बताइएको छ । \n २.अर्थवेद– यसको श्लोक संख्या ३० हजार बताइएको छ । \n ३. अर्थ चन्द्रोदय– यसको श्लोक संख्या २० हजार बताइएको छ ।',
'डा. फेल, डिटेक्टिभ, एन्ड अदर स्टोरिज अमेरिकन उपन्यासकार तथा लेखक जोन डिक्सन कारद्वारा लिखित लघुकथा सङ्ग्रह हो । \n\nसन्दर्भ सूची\n\nलघुकथा संग्रहहरू\nपुस्तकहरू\nजोन डिक्सन कारका लघुकथा संग्रहहरू',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Evaluation
### Metrics
#### Information Retrieval
* Evaluated with [InformationRetrievalEvaluator
](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
| Metric | Value |
|:--------------------|:-----------|
| cosine_accuracy@1 | 0.5404 |
| cosine_accuracy@3 | 0.6196 |
| cosine_accuracy@5 | 0.654 |
| cosine_accuracy@10 | 0.6962 |
| cosine_precision@1 | 0.5404 |
| cosine_precision@3 | 0.2065 |
| cosine_precision@5 | 0.1308 |
| cosine_precision@10 | 0.0696 |
| cosine_recall@1 | 0.5404 |
| cosine_recall@3 | 0.6196 |
| cosine_recall@5 | 0.654 |
| cosine_recall@10 | 0.6962 |
| cosine_ndcg@10 | 0.6146 |
| cosine_mrr@10 | 0.5889 |
| cosine_mrr@20 | 0.5918 |
| cosine_mrr@50 | 0.5937 |
| **cosine_map@100** | **0.5944** |
## Training Details
### Training Dataset
#### wikimedia/wikipedia
* Dataset: [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia) at [b04c8d1](https://huggingface.co/datasets/wikimedia/wikipedia/tree/b04c8d1ceb2f5cd4588862100d08de323dccfbaa)
* Size: 50,049 training samples
* Columns: anchor
and positive
* Approximate statistics based on the first 1000 samples:
| | anchor | positive |
|:--------|:-----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
| type | string | string |
| details |
पहिलो पटक फेस वेक्सिङ गर्ने प्रयास गरेपछि मेरो गालामा दागहरू देखा परे। मेरो डाक्टरले clindac A जेल सिफारिस गर्नुभयो। के मेरो छाला निको हुन लामो समय लाग्छ वा केहि दिनमा यो राम्रो हुन सक्छ?
| डाक्टरबाट सुझावहरू:
1. उचित परीक्षणको लागि छाला विशेषज्ञसँग परामर्श गर्नुहोस्।
2. वाक्सिङ पछि तपाईंको अनुहारमा दागहरू सम्पर्क डर्मेटाइटिस वा एलर्जी प्रतिक्रियाको कारण हुन सक्छ।
3. डाक्टरले एन्टिहिस्टामिन औषधि र कोर्टिकोस्टेरोइड मलम लेख्न सक्छ।
4. रातो दागहरू छुन वा चुम्बन नगर्नुहोस्।
5. अहिलेको लागि प्रत्यक्ष सूर्यको जोखिम र कस्मेटिक उत्पादनहरूबाट बच्नुहोस्।
|
| विश्व व्यापार केन्द्र
| वर्ल्ड ट्रेड सेन्टर न्यु योर्क सहरको मैनछटनमा बनेका दुई टावर रूपी भवनहरूको जोडी थियो, जसलाई आतंकवादी सङ्गठन अल कायदासंग सम्बन्धित आतंकवादिहरूले ११ सितंबर, २००१मा नष्ट गरिदिएका थिए।
मूल वर्ल्ड ट्रेड सेन्टर तल्लो मैनहट्टन, न्यु योर्क सिटी, संयुक्त राज्य अमेरिकामा मीलको पत्थर जुडुवा टावरहरूको विशेषता सात भवनहरुका साथ एक जटिल थियो। जटिल ४ अप्रिल, १९७३लाई खोला, र ११ सेप्टेम्बरका हमलाको समयमा २००१मा नष्ट गरेको थियो।
|
| एम्बुलेन्स
| एम्बुलेन्स बिरामी वा घाइते मान्छेलाई रोग वा चोट लागि उपचार गर्नको लागि अस्पताल सम्म पुर्याउन प्रयोग हुने सवारी साधन हो।
यो पनि हेर्नुहोस
सन्दर्भ सामग्रीहरू
बाह्य कडीहरू
आकस्मिक स्वास्थ्य सेवा
एम्बुलेन्स
|
* Loss: [MultipleNegativesSymmetricRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativessymmetricrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Evaluation Dataset
#### wikimedia/wikipedia
* Dataset: [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia) at [b04c8d1](https://huggingface.co/datasets/wikimedia/wikipedia/tree/b04c8d1ceb2f5cd4588862100d08de323dccfbaa)
* Size: 3,000 evaluation samples
* Columns: anchor
and positive
* Approximate statistics based on the first 1000 samples:
| | anchor | positive |
|:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
| type | string | string |
| details | जनसाङ्ख्यिकीय लाभांश
| जनसाङ्ख्यिकीय लाभांश (Demographic dividend) अर्थ व्यवस्थामा मानव संसाधनका सकारात्मक र सतत विकासलाई दर्शाउँदछ। यो जनसङ्ख्या ढाँचामा बढदो युवा एवं कार्यशील जनसङ्ख्या (१५ वर्षदेखि ६४ वर्ष आयु वर्ग) तथा घट्तो आश्रितता अनुपातका परिणामस्वरूप उत्पादनमा ठूलो मात्राका सृजनलाई प्रदर्शित गर्दछ। यस स्थितिमा जनसङ्ख्या पिरामिड उल्टा बन्नेछ अर्थात यसमा कम जनसङ्ख्या आधार भन्दा माथि ठूलो जनसङ्ख्यातर्फ बढ्दछन्।
|
| साडी गाविस
| साडी गाविस नेपालको पश्चिमाञ्चल विकास क्षेत्रको लुम्बिनी अञ्चल, रूपन्देही जिल्लामा अवस्थित गाउँ विकास समिति हो ।
रूपन्देही जिल्लाका ठाउँहरू
|
| हेप सी र सिरोसिस भएको मेरो साथीले नाकबाट रगत बग्नेलाई गम्भीरतापूर्वक लिनु पर्छ र जेलमा विशेषज्ञलाई भेट्न माग गर्नु पर्छ?
| – लिभर सिरोसिसले नाकबाट रगत बगाउन सक्छ
– सिरोसिसमा कलेजोले राम्रोसँग काम गर्दैन
- यसले कोगुलेसन कारकहरूको उत्पादनलाई असर गर्छ, जुन रगत जम्मा गर्न जिम्मेवार हुन्छ
- फलस्वरूप, क्लोटिंग प्रणाली प्रभावित हुन्छ र नाक रगत हुन सक्छ
- तपाईंको साथीले उचित मूल्याङ्कन र उपचारको लागि डाक्टरसँग परामर्श गर्नुपर्छ
- केहि अवस्थामा, पोर्टल हाइपरटेन्सन व्यवस्थापन गर्न TIPS जस्ता शल्यक्रियाहरू वा बीटा ब्लकरहरू जस्तै औषधिहरू सिफारिस गर्न सकिन्छ।
- सिरोसिसको अन्तिम उपचार कलेजो प्रत्यारोपण हो
- यदि varices (अन्ननलीमा असामान्य नसहरू) बाट कुनै पनि रक्तस्राव भएमा, ब्यान्डिङ जस्ता प्रक्रियाहरूको लागि तत्काल चिकित्सा ध्यान आवश्यक छ।
- यो तपाईंको साथीसँग कुराकानी जारी राख्न र यस प्रक्रिया मार्फत तिनीहरूलाई समर्थन गर्न महत्त्वपूर्ण छ
|
* Loss: [MultipleNegativesSymmetricRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativessymmetricrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `per_device_train_batch_size`: 128
- `per_device_eval_batch_size`: 128
- `learning_rate`: 2e-05
- `num_train_epochs`: 1
- `warmup_ratio`: 0.1
- `bf16`: True
#### All Hyperparameters