File size: 1,055 Bytes
4f67781
2c338fa
 
127909b
2c338fa
 
127909b
2c338fa
127909b
2c338fa
4f67781
127909b
 
4f67781
 
 
 
 
 
 
 
 
 
 
127909b
2c338fa
4f67781
127909b
4f67781
 
127909b
4f67781
127909b
2c338fa
4f67781
127909b
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
# Utiliser l'image officielle Ollama pour le build
FROM ollama/ollama:latest

# Configuration des variables d'environnement
ENV OLLAMA_HOST=0.0.0.0
ENV OLLAMA_MODELS=/data/models
ENV HOME=/app

WORKDIR /app

# Création du répertoire de données avec les bonnes permissions pour HF (User 1000)
RUN mkdir -p /data/models && chmod -R 777 /data/models

# --- PHASE DE PRE-CHARGEMENT ---
# On lance temporairement ollama pour télécharger le modèle durant le build
# Cela évite le timeout de 30min au lancement du Space
RUN ollama serve & \
    sleep 5 && \
    ollama pull mistral-nemo

# Nettoyage des caches inutiles pour réduire la taille de l'image si besoin
# (Optionnel sur HF car ils ont de l'espace disque de build)

# On réinitialise l'ENTRYPOINT
ENTRYPOINT []

# Script de démarrage simplifié car le modèle est déjà là
RUN echo '#!/bin/bash \n\
echo "🚀 Démarrage de Pangea AI Engine..." \n\
ollama serve' > /app/start.sh && chmod +x /app/start.sh

# Port standard HF
EXPOSE 7860

# Lancer via bash
CMD ["/bin/bash", "/app/start.sh"]