Update main.py
Browse files
main.py
CHANGED
|
@@ -19,6 +19,8 @@ from langchain.chains import (
|
|
| 19 |
StuffDocumentsChain, ConversationalRetrievalChain
|
| 20 |
)
|
| 21 |
from langchain_core.tracers.context import tracing_v2_enabled
|
|
|
|
|
|
|
| 22 |
import chainlit as cl
|
| 23 |
from chainlit.input_widget import TextInput, Select, Switch, Slider
|
| 24 |
|
|
@@ -62,7 +64,7 @@ index_name = "all-venus"
|
|
| 62 |
vectorstore = PineconeVectorStore(
|
| 63 |
index_name=index_name, embedding=embeddings
|
| 64 |
)
|
| 65 |
-
retriever = vectorstore.as_retriever(search_type="similarity_score_threshold", search_kwargs={"score_threshold": .7, "k":
|
| 66 |
#search = vectorstore.similarity_search(query,k=50, filter={"categorie": {"$eq": "bibliographie-OPP-DGDIN"}, 'Source': {'$eq': 'Source : Persée'}})
|
| 67 |
|
| 68 |
@cl.on_chat_start
|
|
@@ -183,8 +185,10 @@ async def on_message(message: cl.Message):
|
|
| 183 |
# await msg.stream_token(chunk)
|
| 184 |
cb = cl.AsyncLangchainCallbackHandler()
|
| 185 |
with tracing_v2_enabled():
|
| 186 |
-
|
| 187 |
-
|
|
|
|
|
|
|
| 188 |
|
| 189 |
await cl.Message(content=GoogleTranslator(source='auto', target='fr').translate(answer)).send()
|
| 190 |
search = vectorstore.similarity_search(message.content,k=50, filter={"categorie": {"$eq": "bibliographie-OPP-DGDIN"}})
|
|
|
|
| 19 |
StuffDocumentsChain, ConversationalRetrievalChain
|
| 20 |
)
|
| 21 |
from langchain_core.tracers.context import tracing_v2_enabled
|
| 22 |
+
from langchain_core.tracers.context import collect_runs
|
| 23 |
+
|
| 24 |
import chainlit as cl
|
| 25 |
from chainlit.input_widget import TextInput, Select, Switch, Slider
|
| 26 |
|
|
|
|
| 64 |
vectorstore = PineconeVectorStore(
|
| 65 |
index_name=index_name, embedding=embeddings
|
| 66 |
)
|
| 67 |
+
retriever = vectorstore.as_retriever(search_type="similarity_score_threshold", search_kwargs={"score_threshold": .7, "k": 150,"filter": {'categorie': {'$eq': 'bibliographie-OPP-DGDIN'}}})
|
| 68 |
#search = vectorstore.similarity_search(query,k=50, filter={"categorie": {"$eq": "bibliographie-OPP-DGDIN"}, 'Source': {'$eq': 'Source : Persée'}})
|
| 69 |
|
| 70 |
@cl.on_chat_start
|
|
|
|
| 185 |
# await msg.stream_token(chunk)
|
| 186 |
cb = cl.AsyncLangchainCallbackHandler()
|
| 187 |
with tracing_v2_enabled():
|
| 188 |
+
with collect_runs() as cb:
|
| 189 |
+
results = await runnable.acall("Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous à partir du contexte ci-dessous. En plus, tu créeras 3 questions supplémentaires en relation avec le contexte initial. Tu écriras les 3 questions supplémentaires en relation avec le contexte initial, avec un titrage de niveau 1 qui a pour titre \"Questions en relation avec le contexte : \". Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Question : " + message.content, callbacks=[cb])
|
| 190 |
+
answer = results["answer"]
|
| 191 |
+
print(cb.traced_runs[0])
|
| 192 |
|
| 193 |
await cl.Message(content=GoogleTranslator(source='auto', target='fr').translate(answer)).send()
|
| 194 |
search = vectorstore.similarity_search(message.content,k=50, filter={"categorie": {"$eq": "bibliographie-OPP-DGDIN"}})
|