This is a model for generation paraphrases for given text.
Usage
Using model with Huggingface Transformers:
import torch
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model_name = "fyaronskiy/ruT5-large-paraphraser"
model = AutoModelForSeq2SeqLM.from_pretrained(model_name).to(device)
tokenizer = AutoTokenizer.from_pretrained(model_name)
def paraphrase(text, beams=5, grams=3, **kwargs):
x = tokenizer(text, return_tensors='pt', padding=True)
max_size = int(x.input_ids.shape[1] * 1.5)
output = model.generate(**x, encoder_no_repeat_ngram_size=grams, num_beams=beams, \
max_length=max_size, do_sample = True, **kwargs)
return tokenizer.batch_decode(output, skip_special_tokens=True)[0]
paraphrase('Каждый охотник желает знать, где сидит фазан')
# 'Каждый охотник хочет знать место, где находится фазан.'
paraphrase('Для оценки ситуации в данной сфере эксперты РИА Новости рассчитали соотношение среднедушевых доходов в регионах России и стоимости фиксированного набора потребительских товаров и услуг. Этот показатель позволяет сравнивать регионы по уровню доходов с учетом их покупательной способности, во многом зависящей от уровня местных цен.')
# 'Эксперты РИА Новости оценили среднедушевые доходы россиян и стоимость фиксированной потребительской корзины, а также ее покупательную способность, которая во многом зависит от уровня цен в регионе.'
- Downloads last month
- 65
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for fyaronskiy/ruT5-large-paraphraser
Base model
ai-forever/ruT5-large