| # Exécute votre script de build existant | |
| # Il s'assurera que llama.cpp est compilé et le modèle téléchargé | |
| ./build.sh | |
| # Lance l'application Streamlit une fois que toutes les dépendances sont prêtes | |
| streamlit run app.py | |
| # Exécute votre script de build existant | |
| # Il s'assurera que llama.cpp est compilé et le modèle téléchargé | |
| ./build.sh | |
| # Lance l'application Streamlit une fois que toutes les dépendances sont prêtes | |
| streamlit run app.py | |