title: CygnisAI Studio API
emoji: 🦢
colorFrom: purple
colorTo: indigo
sdk: docker
pinned: false
app_port: 7860
🦢 CygnisAI Studio API
Une API unifiée et performante pour accéder aux meilleurs modèles d'IA open-source via l'infrastructure Hugging Face.
Cette API agit comme une passerelle sécurisée et intelligente, routant vos requêtes vers les modèles les plus adaptés (Llama 3, Gemma 2, DeepSeek, etc.) avec une interface compatible OpenAI.
🚀 Fonctionnalités
- Multi-modèles : Accès à une large gamme de LLMs via un seul endpoint.
- Sécurisé : Authentification par Bearer Token.
- Standardisé : Format de requête et de réponse JSON simple.
- Robuste : Gestion automatique des erreurs et fallbacks.
🛠️ Utilisation
Endpoint Principal
POST /api/ask
Authentification
Ajoutez le header suivant à vos requêtes :
Authorization: Bearer VOTRE_CLE_API
(La clé par défaut pour la démo est : cgn_live_stable_demo_api_key_012345)
Exemple de Requête (JavaScript / Fetch)
fetch('https://votre-space-url.hf.space/api/ask', {
method: 'POST',
headers: {
'Authorization': 'Bearer cgn_live_stable_demo_api_key_012345',
'Content-Type': 'application/json',
},
body: JSON.stringify({
question: 'Qui a découvert la pénicilline ?',
model: 'google/gemma-3-27b-it', // Optionnel
system_prompt: 'Tu es un expert en histoire des sciences.' // Optionnel
}),
})
.then(response => response.json())
.then(data => console.log(data));
Exemple de Réponse
{
"answer": "La pénicilline a été découverte par Alexander Fleming en 1928...",
"model_used": "google/gemma-2-27b-it",
"sources": []
}
🤖 Modèles Disponibles
Vous pouvez demander ces modèles via le paramètre model. L'API routera automatiquement vers la version la plus performante disponible.
| ID du Modèle (Alias) | Modèle Réel Utilisé (Fallback) | Description |
|---|---|---|
google/gemma-3-27b-it |
Gemma 2 27B IT | Rapide et efficace |
openai/gpt-oss-120b |
Llama 3.1 70B | Très puissant, équivalent GPT-4 |
deepseek-ai/DeepSeek-V3.2 |
DeepSeek V3 | Excellent pour le code et la logique |
meta-llama/Llama-4-Scout |
Llama 3.1 8B | Léger et ultra-rapide |
nvidia/Nemotron-3 |
Llama 3.1 Nemotron 70B | Spécialisé instruction-following |
default |
Llama 3 8B | Le choix par défaut équilibré |
⚙️ Configuration (Pour le déploiement)
Pour déployer cette API sur votre propre Space, vous devez configurer les Secrets suivants dans les paramètres du Space :
HF_TOKEN: Votre token d'accès Hugging Face (avec droits de lecture).CYGNIS_API_KEY: (Optionnel) La clé API que vous souhaitez utiliser pour sécuriser l'accès.
Propulsé par FastAPI, Docker et l'Inference API Hugging Face.