Configuration des Bots
Chaque bot dans AISCouncil est défini par un objet de configuration qui contrôle son fournisseur, son modèle, son comportement et son apparence. Cette page documente le schéma de configuration complet et explique chaque champ.
Le Panneau de Configuration
Le panneau de configuration glisse depuis le côté droit de l'écran. Il est visible par défaut sur ordinateur et accessible via l'icône de paramètres sur mobile. Le panneau contient :
- Les sélecteurs de fournisseur et de modèle en haut
- La zone de texte du prompt système
- Les paramètres de génération (température, jetons max, etc.)
- Les paramètres avancés (section extensible)
- Les paramètres de persona (icône, description, couleur)
- Le champ de clé API par bot
Les modifications sont enregistrées automatiquement lors de l'édition.
Champs Principaux
Fournisseur
Le fournisseur LLM qui héberge le modèle. Sélectionnez dans le menu déroulant :
| Fournisseur | Source de Clé API | Notes |
|---|---|---|
| Anthropic | console.anthropic.com | Modèles Claude -- raisonnement avancé |
| OpenAI | platform.openai.com | GPT-4o, o3, DALL-E |
| xAI | console.x.ai | Modèles Grok |
| Google Gemini | aistudio.google.com | Niveau Flash gratuit disponible |
| OpenRouter | openrouter.ai | Plus de 300 modèles, niveau gratuit |
| Groq | console.groq.com | Inférence LPU ultra-rapide |
| DeepSeek | platform.deepseek.com | Modèles de raisonnement R1 et V3 |
| Mistral | console.mistral.ai | Large, Small, Codestral |
| Ollama | N/A (local) | S'exécute localement, pas de clé API nécessaire |
| Personnalisé | Défini par l'utilisateur | Tout point de terminaison compatible OpenAI |
Changer le fournisseur met à jour le menu déroulant des modèles pour afficher les modèles disponibles pour ce fournisseur.
Modèle
Le modèle spécifique du fournisseur sélectionné. Le menu déroulant est rempli depuis le registre de modèles communautaire et affiche :
- Le nom et l'ID du modèle
- Le niveau de tarification (gratuit ou payant)
- La taille de la fenêtre de contexte
- Les capacités (vision, raisonnement, outils)
Lorsque vous sélectionnez un modèle, une carte d'info apparaît sous le menu déroulant montrant les tarifs (entrée/sortie par million de jetons), la taille de la fenêtre de contexte, les jetons de sortie max et les étiquettes de capacité. Cela vous aide à choisir le bon modèle pour votre tâche.
Prompt Système
Instructions envoyées au modèle au début de chaque conversation. Définit le comportement, la personnalité et les contraintes du bot. Consultez Prompts Système pour des conseils détaillés et des modèles.
Le champ de prompt système inclut un menu déroulant de modèles avec 5 préréglages intégrés. Sélectionnez un modèle et personnalisez-le selon vos besoins.
Température
Contrôle l'aléatoire/créativité des réponses.
| Valeur | Comportement |
|---|---|
| 0 | Déterministe -- choisit toujours le jeton le plus probable |
| 0.3 | Conservateur -- réponses focalisées, cohérentes |
| 0.7 | Équilibré (défaut) -- bon mélange de créativité et de cohérence |
| 1.0 | Créatif -- réponses plus variées |
| 1.5-2.0 | Très créatif -- imprévisible, expérimental |
Jetons Max
Nombre maximum de jetons que le modèle peut générer en une seule réponse. Plage : 128 à 16 384 (ou plus pour les modèles qui le supportent). Défaut : 4 096.
Définir les jetons max trop bas peut entraîner des réponses coupées en milieu de phrase. Les définir trop haut peut augmenter les coûts pour les modèles payants. 4 096 est un bon défaut pour la plupart des cas d'usage.
Champs Avancés
Dépliez la section Avancé dans le panneau de configuration pour accéder à ces paramètres.
Effort de Raisonnement / Réflexion
Pour les modèles qui supportent la réflexion étendue (Claude, série o de GPT, DeepSeek R1, modèles réflexion de Gemini), cela contrôle la quantité de calcul que le modèle passe à raisonner avant de répondre.
| Valeur | Description |
|---|---|
| Désactivé | Pas de réflexion étendue (réponse standard) |
| Faible | Raisonnement minimal, réponses les plus rapides |
| Moyen | Profondeur de raisonnement modérée |
| Élevé | Raisonnement approfondi, plus complet |
| Maximum | Effort de raisonnement maximal |
| Personnalisé | Définir un nombre de jetons de budget personnalisé |
Tous les modèles ne supportent pas le mode raisonnement/réflexion. Le champ n'apparaît que lorsque le modèle ou fournisseur sélectionné le supporte. Les modèles connus pour supporter le raisonnement incluent Anthropic Claude (réflexion étendue), série o1/o3 d'OpenAI, DeepSeek R1, xAI Grok et les modèles réflexion de Google Gemini.
Top P (Échantillonnage Nucleus)
Contrôle le seuil de probabilité cumulée pour la sélection de jetons. Défaut : 1.0 (pas de filtrage).
1.0-- considérer tous les jetons (défaut)0.9-- considérer les jetons comprenant les 90% supérieurs de masse de probabilité0.1-- très restrictif, presque déterministe
Il est généralement recommandé d'ajuster soit la Température soit Top P, pas les deux en même temps. Changer les deux peut produire des résultats imprévisibles.
Pénalité de Fréquence
Réduit la probabilité que le modèle répète des jetons déjà apparus. Plage : 0 à 2. Défaut : 0.
0-- pas de pénalité (défaut)0.5-- réduction modérée de répétition1.0-2.0-- forte réduction de répétition
Pénalité de Présence
Encourage le modèle à parler de nouveaux sujets en pénalisant les jetons qui sont apparus au moins une fois. Plage : 0 à 2. Défaut : 0.
0-- pas de pénalité (défaut)0.5-- encouragement modéré à la diversité de sujets1.0-2.0-- forte poussée vers de nouveaux sujets
Graine
Une valeur entière pour des sorties reproductibles. Lorsque la même graine, le même prompt et les mêmes paramètres sont utilisés, le modèle tente de retourner la même réponse. Tous les fournisseurs ne supportent pas cette fonctionnalité.
Séquences d'Arrêt
Une liste séparée par des virgules de jetons d'arrêt personnalisés. Lorsque le modèle génère l'une de ces séquences, il cesse de produire davantage de sortie. Utile pour les sorties structurées ou les scénarios de jeu de rôle.
Exemple : END,---,</answer> fait que le modèle s'arrête lorsqu'il génère END, --- ou </answer>.
Format de Réponse
Contrôle le format de sortie :
| Valeur | Description |
|---|---|
text | Sortie texte standard (défaut) |
json | Force la sortie JSON (le modèle doit supporter la sortie structurée) |
Le mode JSON nécessite que le prompt système instruise le modèle de produire du JSON. Simplement définir le format de réponse sur JSON sans le mentionner dans le prompt peut entraîner des erreurs ou une sortie malformée.
Appel d'Outils
Configurez l'appel de fonctions/outils pour les modèles qui le supportent. C'est une fonctionnalité avancée pour construire des bots qui peuvent invoquer des outils externes ou des actions structurées.
Clé API par Bot
Chaque bot peut utiliser une clé API différente de la clé globale :
- Trouvez le champ Clé API dans le panneau de configuration (sous le sélecteur de fournisseur)
- Entrez une clé spécifique à ce bot
- Cette clé remplace la clé globale pour ce bot uniquement
Les clés par bot sont stockées localement et ne sont jamais incluses dans les URL de bots partagés.
Clés Courtes de Configuration
En interne, les configurations de bots utilisent des clés courtes pour une compression d'URL efficace. C'est utile si vous construisez des intégrations ou déboguez des URL partagées :
| Clé Courte | Nom Complet | Type | Défaut |
|---|---|---|---|
n | Nom | chaîne | "Nouveau Bot" |
p | Fournisseur | chaîne | "anthropic" |
m | Modèle | chaîne | -- |
s | Prompt Système | chaîne | "" |
t | Température | nombre | 0.7 |
x | Jetons Max | nombre | 4096 |
tp | Top P | nombre | 1.0 |
fp | Pénalité de Fréquence | nombre | 0 |
pp | Pénalité de Présence | nombre | 0 |
se | Graine | nombre | -- |
re | Effort de Raisonnement | chaîne | -- |
st | Séquences d'Arrêt | chaîne | -- |
rf | Format de Réponse | chaîne | "text" |
tc | Choix d'Outil | chaîne | -- |
tl | Liste d'Outils | tableau | -- |
pi | Icône Persona | chaîne | -- |
pd | Description Persona | chaîne | -- |
pc | Couleur Persona | chaîne | -- |
Configuration de Conseil (clé c)
Lorsque le bot est un conseil (2+ membres), la clé c contient :
| Clé Courte | Nom Complet | Type | Défaut |
|---|---|---|---|
cs | Style de Conseil | chaîne | "council" |
ms | Membres | tableau | -- |
ch | Président | nombre | 0 |
vm | Mode de Vote | chaîne | "weighted" |
sr | Ignorer Revue | booléen | false |
mx | Jetons Max (par membre) | nombre | 1024 |
dr | Tours de Délibération | nombre | 2 |
Paramètres de Chat
Ces paramètres par bot contrôlent l'expérience de chat :
| Paramètre | Clé Courte | Description | Défaut |
|---|---|---|---|
| Limite de Contexte | cl | Messages max envoyés à l'API (0 = illimité) | Illimité |
| Streaming | sm | Diffuser les jetons en temps réel | Activé |
| Titre Auto | at | Générer automatiquement les titres de conversation | Désactivé |
| Markdown | mr | Rendre le markdown dans les réponses | Activé |
| Afficher Compte Jetons | stc | Afficher l'utilisation de jetons par message | Désactivé |
Éditer la Configuration Brute
Le panneau de configuration fournit un éditeur visuel pour tous les champs. Vous n'avez pas besoin d'éditer le JSON brut en utilisation normale. Cependant, le format interne est documenté ici pour les développeurs construisant des intégrations, des fournisseurs personnalisés ou des outils qui génèrent des configurations de bot programmatiquement.
Exemple de configuration brute :
{
"n": "Assistant Code",
"p": "anthropic",
"m": "claude-sonnet-4-20250514",
"s": "Vous êtes un ingénieur logiciel expert. Fournissez un code clair et bien documenté avec des explications.",
"t": 0.3,
"x": 8192,
"pi": "💻",
"pd": "Assistant ingénierie logicielle",
"pc": "#4a90d9"
}