Ferdlance commited on
Commit
04eb473
·
verified ·
1 Parent(s): c8ca1ef

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +6 -4
Dockerfile CHANGED
@@ -4,7 +4,7 @@ FROM python:3.11-slim
4
  # Définit le répertoire de travail dans le conteneur
5
  WORKDIR /app
6
 
7
- # Installe les dépendances du système (outils de compilation, Git et utilitaires)
8
  RUN apt-get update && apt-get install -y \
9
  build-essential \
10
  cmake \
@@ -16,18 +16,20 @@ RUN apt-get update && apt-get install -y \
16
  && rm -rf /var/lib/apt/lists/*
17
 
18
  # Crée tous les dossiers nécessaires en tant qu'utilisateur root et change la propriété
19
- RUN mkdir -p logs data config server scripts models .kaggle .streamlit llama.cpp/build && \
20
- chown -R 1000:1000 logs data config server scripts models .kaggle .streamlit llama.cpp/build
21
 
22
  # Clone et compile llama.cpp pendant le build
23
  RUN git clone https://github.com/ggerganov/llama.cpp.git
24
  WORKDIR /app/llama.cpp
 
 
25
  RUN cmake .. -DLLAMA_CURL=1
26
  RUN cmake --build . --config Release
27
  WORKDIR /app
28
 
29
  # Télécharge le modèle GGUF directement dans le Dockerfile
30
- # Vous pouvez ajuster l'URL et le nom du fichier si nécessaire
31
  RUN wget -P models/ "https://huggingface.co/Qwen/Qwen2.5-Coder-1.5B-GGUF/resolve/main/qwen2.5-coder-1.5b-q8_0.gguf"
32
 
33
  # Copie tous les fichiers de votre dépôt dans le conteneur
 
4
  # Définit le répertoire de travail dans le conteneur
5
  WORKDIR /app
6
 
7
+ # Installe les dépendances du système (outils de compilation et utilitaires)
8
  RUN apt-get update && apt-get install -y \
9
  build-essential \
10
  cmake \
 
16
  && rm -rf /var/lib/apt/lists/*
17
 
18
  # Crée tous les dossiers nécessaires en tant qu'utilisateur root et change la propriété
19
+ RUN mkdir -p logs data config server scripts models .kaggle .streamlit && \
20
+ chown -R 1000:1000 logs data config server scripts models .kaggle .streamlit
21
 
22
  # Clone et compile llama.cpp pendant le build
23
  RUN git clone https://github.com/ggerganov/llama.cpp.git
24
  WORKDIR /app/llama.cpp
25
+ RUN mkdir build
26
+ WORKDIR /app/llama.cpp/build
27
  RUN cmake .. -DLLAMA_CURL=1
28
  RUN cmake --build . --config Release
29
  WORKDIR /app
30
 
31
  # Télécharge le modèle GGUF directement dans le Dockerfile
32
+ # Remarque: assurez-vous que l'URL est correcte
33
  RUN wget -P models/ "https://huggingface.co/Qwen/Qwen2.5-Coder-1.5B-GGUF/resolve/main/qwen2.5-coder-1.5b-q8_0.gguf"
34
 
35
  # Copie tous les fichiers de votre dépôt dans le conteneur