Ferdlance commited on
Commit
c7fe3ec
·
verified ·
1 Parent(s): c36dbf9

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +10 -9
Dockerfile CHANGED
@@ -4,31 +4,32 @@ FROM python:3.11-slim
4
  # Définit le répertoire de travail dans le conteneur
5
  WORKDIR /app
6
 
7
- # Installe les dépendances du système (outils de compilation et Git)
8
  RUN apt-get update && apt-get install -y \
9
  build-essential \
10
  cmake \
11
  git \
12
  aria2 \
 
13
  libcurl4-openssl-dev \
14
  pkg-config \
15
  && rm -rf /var/lib/apt/lists/*
16
 
17
- # Crée tous les dossiers nécessaires en tant qu'utilisateur root
18
- RUN mkdir -p logs data/devsecops/qa data/security/qa data/development/qa data/data_analysis/qa config server scripts models .kaggle .streamlit
19
-
20
- # Change la propriété des dossiers à l'utilisateur non-root par défaut (1000:1000)
21
- RUN chown -R 1000:1000 logs data config server scripts models .kaggle .streamlit
22
 
23
  # Clone et compile llama.cpp pendant le build
24
  RUN git clone https://github.com/ggerganov/llama.cpp.git
25
  WORKDIR /app/llama.cpp
26
- RUN mkdir -p build
27
- WORKDIR /app/llama.cpp/build
28
  RUN cmake .. -DLLAMA_CURL=1
29
  RUN cmake --build . --config Release
30
  WORKDIR /app
31
 
 
 
 
 
32
  # Copie tous les fichiers de votre dépôt dans le conteneur
33
  COPY . /app
34
 
@@ -37,7 +38,7 @@ RUN chmod +x ./start.sh
37
 
38
  # Définit les dossiers de configuration dans le répertoire de travail pour les permissions
39
  ENV KAGGLE_CONFIG_DIR=/app
40
- ENV STREAMLIT_CONFIG_DIR=/app/.streamlit
41
 
42
  # Installe les dépendances Python
43
  RUN pip install --no-cache-dir -r requirements.txt
 
4
  # Définit le répertoire de travail dans le conteneur
5
  WORKDIR /app
6
 
7
+ # Installe les dépendances du système (outils de compilation, Git et utilitaires)
8
  RUN apt-get update && apt-get install -y \
9
  build-essential \
10
  cmake \
11
  git \
12
  aria2 \
13
+ wget \
14
  libcurl4-openssl-dev \
15
  pkg-config \
16
  && rm -rf /var/lib/apt/lists/*
17
 
18
+ # Crée tous les dossiers nécessaires en tant qu'utilisateur root et change la propriété
19
+ RUN mkdir -p logs data config server scripts models .kaggle .streamlit llama.cpp/build && \
20
+ chown -R 1000:1000 logs data config server scripts models .kaggle .streamlit llama.cpp/build
 
 
21
 
22
  # Clone et compile llama.cpp pendant le build
23
  RUN git clone https://github.com/ggerganov/llama.cpp.git
24
  WORKDIR /app/llama.cpp
 
 
25
  RUN cmake .. -DLLAMA_CURL=1
26
  RUN cmake --build . --config Release
27
  WORKDIR /app
28
 
29
+ # Télécharge le modèle GGUF directement dans le Dockerfile
30
+ # Vous pouvez ajuster l'URL et le nom du fichier si nécessaire
31
+ RUN wget -P models/ "https://huggingface.co/Qwen/Qwen2.5-Coder-1.5B-GGUF/resolve/main/qwen2.5-coder-1.5b-q8_0.gguf"
32
+
33
  # Copie tous les fichiers de votre dépôt dans le conteneur
34
  COPY . /app
35
 
 
38
 
39
  # Définit les dossiers de configuration dans le répertoire de travail pour les permissions
40
  ENV KAGGLE_CONFIG_DIR=/app
41
+ ENV STREAMLIT_SERVER_INFO_DIR=/app/.streamlit
42
 
43
  # Installe les dépendances Python
44
  RUN pip install --no-cache-dir -r requirements.txt