Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -64,20 +64,23 @@ def answer_question(question, max_length=200, temperature=0.7, top_k=50, top_p=0
|
|
| 64 |
return "Erro: O prompt gerado ultrapassou o limite de tokens do modelo. Tente um PDF menor.", prompt
|
| 65 |
|
| 66 |
# Gerar a resposta com configurações ajustadas
|
|
|
|
| 67 |
outputs = model.generate(
|
| 68 |
inputs.input_ids,
|
| 69 |
max_new_tokens=200, # Gerar até 200 novos tokens (apenas a resposta)
|
| 70 |
-
temperature=
|
| 71 |
num_return_sequences=1,
|
| 72 |
)
|
| 73 |
|
| 74 |
# Decodificando a resposta
|
| 75 |
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
|
|
|
| 76 |
return response, prompt
|
|
|
|
| 77 |
except Exception as e:
|
| 78 |
print(f"Erro ao gerar resposta: {e}")
|
| 79 |
print(traceback.format_exc())
|
| 80 |
-
return "Erro ao gerar resposta
|
| 81 |
|
| 82 |
# Interface do Gradio para carregar PDF e fazer perguntas
|
| 83 |
pdf_loader = gr.Interface(
|
|
|
|
| 64 |
return "Erro: O prompt gerado ultrapassou o limite de tokens do modelo. Tente um PDF menor.", prompt
|
| 65 |
|
| 66 |
# Gerar a resposta com configurações ajustadas
|
| 67 |
+
print(f"Gerando resposta com max_new_tokens=200 e temperature={temperature}")
|
| 68 |
outputs = model.generate(
|
| 69 |
inputs.input_ids,
|
| 70 |
max_new_tokens=200, # Gerar até 200 novos tokens (apenas a resposta)
|
| 71 |
+
temperature=temperature, # Temperatura para controlar a criatividade
|
| 72 |
num_return_sequences=1,
|
| 73 |
)
|
| 74 |
|
| 75 |
# Decodificando a resposta
|
| 76 |
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
| 77 |
+
print(f"Resposta gerada: {response}")
|
| 78 |
return response, prompt
|
| 79 |
+
|
| 80 |
except Exception as e:
|
| 81 |
print(f"Erro ao gerar resposta: {e}")
|
| 82 |
print(traceback.format_exc())
|
| 83 |
+
return f"Erro ao gerar resposta: {e}", ""
|
| 84 |
|
| 85 |
# Interface do Gradio para carregar PDF e fazer perguntas
|
| 86 |
pdf_loader = gr.Interface(
|