---
license: apache-2.0
language:
- pt
pipeline_tag: text-classification
library_name: transformers
widget:
- text: |
As palavras "feliz" e "alegre" são sinônimos?
tags:
- portuguese
- bert
- sinônimos
model-index:
- name: simnonym
results:
- task:
type: text-generation
dataset:
type: lrds-code/sym-pair
name: sym-pair
config: pt
split: validation
metrics:
- type: Accuracy
value: 91.79
datasets:
- lrds-code/sym-pair
---
# Simnonym
Simnonym é um classificador BERT-based de sinônimos da língua portuguesa.
## Entrada
A entrada deve sempre seguir o template do prompt
- **'As palavras "{}" e "{}" são sinônimos?'**
## Dados de Treinamento
O modelo foi treinado e avaliado no conjunto de dados [Sym-Pair](lrds-code/sym-pair).
Sym-Pair possui aproximadamente 1.5 milhões de sentenças que comparam pares de palavras. Esses pares podem ser sinônimos ou não.
Sym-Pair é composto por:
- Pares de sinônimos e antônimos obtidos de dois datasets ([DicSin](https://github.com/fititnt/DicSin-dicionario-sinonimos-portugues-brasileiro) e [Portuguese Brazilian Synonyms](https://github.com/stavarengo/portuguese-brazilian-synonyms)).
- Pares aleatórios de palavras não relacionadas. Obtidos através de combinação aleatória do conjunto de sinônimos.
## Descrição do Modelo
- **Desenvolvido por:** [Leonardo Souza](https://huggingface.co/lrds-code)
- **Tipo do modelo:** BERT
- **Licença:** Apache 2.0
- **Fine-tunado do modelo:** [BERTimbau Base](https://huggingface.co/neuralmind/bert-base-portuguese-cased)
## Como Usar
Exemplo de uma única classificação:
```python
import torch
from transformers import AutoTokenizer
from transformers import AutoModelForSequenceClassification
model_name = 'lrds-code/simnonym'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
inputs = tokenizer('As palavras "feliz" e "alegre" são sinônimos?', return_tensors='pt')
with torch.no_grad():
output = model(**inputs).logits
predict_id = logits.argmax().item()
model.config.id2label[predict_id]
```