# Utiliser l'image officielle Ollama pour le build FROM ollama/ollama:latest # Configuration des variables d'environnement ENV OLLAMA_HOST=0.0.0.0 ENV OLLAMA_MODELS=/data/models ENV HOME=/app WORKDIR /app # Création du répertoire de données avec les bonnes permissions pour HF (User 1000) RUN mkdir -p /data/models && chmod -R 777 /data/models # --- PHASE DE PRE-CHARGEMENT --- # On lance temporairement ollama pour télécharger le modèle durant le build # Cela évite le timeout de 30min au lancement du Space RUN ollama serve & \ sleep 5 && \ ollama pull mistral-nemo # Nettoyage des caches inutiles pour réduire la taille de l'image si besoin # (Optionnel sur HF car ils ont de l'espace disque de build) # On réinitialise l'ENTRYPOINT ENTRYPOINT [] # Script de démarrage simplifié car le modèle est déjà là RUN echo '#!/bin/bash \n\ echo "🚀 Démarrage de Pangea AI Engine..." \n\ ollama serve' > /app/start.sh && chmod +x /app/start.sh # Port standard HF EXPOSE 7860 # Lancer via bash CMD ["/bin/bash", "/app/start.sh"]