Spaces:
Sleeping
Sleeping
| import streamlit as st | |
| from pages.models.gptmodel import model | |
| from pages.models.gptmodel import tokenizer | |
| import torch | |
| import transformers | |
| from transformers import GPT2LMHeadModel, GPT2Tokenizer | |
| st.title('Генерация текста модель rugpt3small_based_on_gpt2 ') | |
| text = st.text_input('Введите сюда вопрос или предложение для генерации текста') | |
| temp = st.slider('Выберите значения температуры',min_value=1.0, max_value=3.0, step=0.1 ) | |
| length = st.slider('Выберите длину последовательности',min_value=1, max_value=200, step=10 ) | |
| beams = st.slider('Выберите число генераций',min_value=1, max_value=10, step=1 ) | |
| p = st.slider('Выберите значения top_p',min_value=0.5, max_value=0.9, step=0.1 ) | |
| model.eval() | |
| if text: | |
| input_ids = tokenizer.encode(text, return_tensors="pt").to('cpu') | |
| with torch.no_grad(): | |
| out = model.generate(input_ids, | |
| do_sample=True, | |
| num_beams=beams, | |
| temperature=temp, | |
| top_p=p, | |
| max_length=length, | |
| ) | |
| st.write(list(map(tokenizer.decode, out))[0]) |