|
|
--- |
|
|
title: CygnisAI Studio API |
|
|
emoji: 🦢 |
|
|
colorFrom: purple |
|
|
colorTo: indigo |
|
|
sdk: docker |
|
|
pinned: false |
|
|
app_port: 7860 |
|
|
--- |
|
|
|
|
|
# 🦢 CygnisAI Studio API |
|
|
|
|
|
Une API unifiée et performante pour accéder aux meilleurs modèles d'IA open-source via l'infrastructure Hugging Face. |
|
|
|
|
|
Cette API agit comme une passerelle sécurisée et intelligente, routant vos requêtes vers les modèles les plus adaptés (Llama 3, Gemma 2, DeepSeek, etc.) avec une interface compatible OpenAI. |
|
|
|
|
|
## 🚀 Fonctionnalités |
|
|
|
|
|
- **Multi-modèles** : Accès à une large gamme de LLMs via un seul endpoint. |
|
|
- **Sécurisé** : Authentification par Bearer Token. |
|
|
- **Standardisé** : Format de requête et de réponse JSON simple. |
|
|
- **Robuste** : Gestion automatique des erreurs et fallbacks. |
|
|
|
|
|
## 🛠️ Utilisation |
|
|
|
|
|
### Endpoint Principal |
|
|
|
|
|
`POST /api/ask` |
|
|
|
|
|
### Authentification |
|
|
|
|
|
Ajoutez le header suivant à vos requêtes : |
|
|
`Authorization: Bearer VOTRE_CLE_API` |
|
|
|
|
|
*(La clé par défaut pour la démo est : `cgn_live_stable_demo_api_key_012345`)* |
|
|
|
|
|
### Exemple de Requête (JavaScript / Fetch) |
|
|
|
|
|
```javascript |
|
|
fetch('https://votre-space-url.hf.space/api/ask', { |
|
|
method: 'POST', |
|
|
headers: { |
|
|
'Authorization': 'Bearer cgn_live_stable_demo_api_key_012345', |
|
|
'Content-Type': 'application/json', |
|
|
}, |
|
|
body: JSON.stringify({ |
|
|
question: 'Qui a découvert la pénicilline ?', |
|
|
model: 'google/gemma-3-27b-it', // Optionnel |
|
|
system_prompt: 'Tu es un expert en histoire des sciences.' // Optionnel |
|
|
}), |
|
|
}) |
|
|
.then(response => response.json()) |
|
|
.then(data => console.log(data)); |
|
|
``` |
|
|
|
|
|
### Exemple de Réponse |
|
|
|
|
|
```json |
|
|
{ |
|
|
"answer": "La pénicilline a été découverte par Alexander Fleming en 1928...", |
|
|
"model_used": "google/gemma-2-27b-it", |
|
|
"sources": [] |
|
|
} |
|
|
``` |
|
|
|
|
|
## 🤖 Modèles Disponibles |
|
|
|
|
|
Vous pouvez demander ces modèles via le paramètre `model`. L'API routera automatiquement vers la version la plus performante disponible. |
|
|
|
|
|
| ID du Modèle (Alias) | Modèle Réel Utilisé (Fallback) | Description | |
|
|
|---|---|---| |
|
|
| `google/gemma-3-27b-it` | Gemma 2 27B IT | Rapide et efficace | |
|
|
| `openai/gpt-oss-120b` | Llama 3.1 70B | Très puissant, équivalent GPT-4 | |
|
|
| `deepseek-ai/DeepSeek-V3.2` | DeepSeek V3 | Excellent pour le code et la logique | |
|
|
| `meta-llama/Llama-4-Scout` | Llama 3.1 8B | Léger et ultra-rapide | |
|
|
| `nvidia/Nemotron-3` | Llama 3.1 Nemotron 70B | Spécialisé instruction-following | |
|
|
| `default` | Llama 3 8B | Le choix par défaut équilibré | |
|
|
|
|
|
## ⚙️ Configuration (Pour le déploiement) |
|
|
|
|
|
Pour déployer cette API sur votre propre Space, vous devez configurer les **Secrets** suivants dans les paramètres du Space : |
|
|
|
|
|
1. `HF_TOKEN` : Votre token d'accès Hugging Face (avec droits de lecture). |
|
|
2. `CYGNIS_API_KEY` : (Optionnel) La clé API que vous souhaitez utiliser pour sécuriser l'accès. |
|
|
|
|
|
--- |
|
|
*Propulsé par FastAPI, Docker et l'Inference API Hugging Face.* |
|
|
|