Alikhan Urumov commited on
Commit
1b79aae
1 Parent(s): baf88a4

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -6
README.md CHANGED
@@ -23,21 +23,21 @@ should probably proofread and complete it, then remove this comment. -->
23
 
24
  --------------------------------------------------------------------------------------------
25
 
26
-
27
  # Установим библиотеку трансформеров
28
  !pip install transformers
29
- ```js
30
  # Импортируем библиотеки
31
  from transformers import AutoModelForSeq2SeqLM, T5TokenizerFast
32
- ```
33
  # Зададим название выбронной модели из хаба
34
  MODEL_NAME = 'UrukHan/t5-russian-spell'
35
  MAX_INPUT = 256
36
- ```py
37
  # Загрузка модели и токенизатора
38
  tokenizer = T5TokenizerFast.from_pretrained(MODEL_NAME)
39
  model = AutoModelForSeq2SeqLM.from_pretrained(MODEL_NAME)
40
- ```
41
  # Входные данные (можно массив фраз или текст)
42
  input_sequences = ['сеглдыя хорош ден', 'когд а вы прдет к нам в госи'] # или можно использовать одиночные фразы: input_sequences = 'сеглдыя хорош ден'
43
 
@@ -54,7 +54,7 @@ encoded = tokenizer(
54
  predicts = model.generate(encoded) # # Прогнозирование
55
 
56
  tokenizer.batch_decode(predicts, skip_special_tokens=True) # Декодируем данные
57
-
58
 
59
  --------------------------------------------------------------------------------------------
60
 
 
23
 
24
  --------------------------------------------------------------------------------------------
25
 
26
+ ---
27
  # Установим библиотеку трансформеров
28
  !pip install transformers
29
+
30
  # Импортируем библиотеки
31
  from transformers import AutoModelForSeq2SeqLM, T5TokenizerFast
32
+
33
  # Зададим название выбронной модели из хаба
34
  MODEL_NAME = 'UrukHan/t5-russian-spell'
35
  MAX_INPUT = 256
36
+
37
  # Загрузка модели и токенизатора
38
  tokenizer = T5TokenizerFast.from_pretrained(MODEL_NAME)
39
  model = AutoModelForSeq2SeqLM.from_pretrained(MODEL_NAME)
40
+
41
  # Входные данные (можно массив фраз или текст)
42
  input_sequences = ['сеглдыя хорош ден', 'когд а вы прдет к нам в госи'] # или можно использовать одиночные фразы: input_sequences = 'сеглдыя хорош ден'
43
 
 
54
  predicts = model.generate(encoded) # # Прогнозирование
55
 
56
  tokenizer.batch_decode(predicts, skip_special_tokens=True) # Декодируем данные
57
+ ---
58
 
59
  --------------------------------------------------------------------------------------------
60