Bot-Konfiguration
Jeder Bot in AISCouncil wird durch ein Konfigurationsobjekt definiert, das seinen Anbieter, sein Modell, sein Verhalten und sein Aussehen steuert. Diese Seite dokumentiert das vollständige Konfigurationsschema und erklärt jedes Feld.
Das Konfigurations-Panel
Das Konfigurations-Panel schiebt sich von der rechten Seite des Bildschirms heraus. Es ist standardmäßig auf dem Desktop sichtbar und über das Einstellungen-Symbol auf Mobilgeräten zugänglich. Das Panel enthält:
- Anbieter- und Modell-Auswähler oben
- System-Prompt-Textbereich
- Generierungsparameter (Temperatur, Max. Tokens, etc.)
- Erweiterte Einstellungen (erweiterbarer Abschnitt)
- Persona-Einstellungen (Symbol, Beschreibung, Farbe)
- Pro-Bot-API-Schlüssel-Feld
Änderungen werden beim Bearbeiten automatisch gespeichert.
Kernfelder
Anbieter
Der LLM-Anbieter, der das Modell hostet. Wählen Sie aus dem Dropdown:
| Anbieter | API-Schlüssel-Quelle | Hinweise |
|---|---|---|
| Anthropic | console.anthropic.com | Claude-Modelle -- fortgeschrittenes Reasoning |
| OpenAI | platform.openai.com | GPT-4o, o3, DALL-E |
| xAI | console.x.ai | Grok-Modelle |
| Google Gemini | aistudio.google.com | Kostenlose Flash-Stufe verfügbar |
| OpenRouter | openrouter.ai | 300+ Modelle, kostenlose Stufe |
| Groq | console.groq.com | Ultraschnelle LPU-Inferenz |
| DeepSeek | platform.deepseek.com | R1 und V3 Reasoning-Modelle |
| Mistral | console.mistral.ai | Large, Small, Codestral |
| Ollama | N/A (lokal) | Läuft lokal, kein API-Schlüssel benötigt |
| Custom | Benutzerdefiniert | Jeder OpenAI-kompatible Endpunkt |
Das Ändern des Anbieters aktualisiert das Modell-Dropdown, um verfügbare Modelle für diesen Anbieter anzuzeigen.
Modell
Das spezifische Modell vom ausgewählten Anbieter. Das Dropdown wird aus der Community-Modell-Registry gefüllt und zeigt:
- Modellname und -ID
- Preisstufe (kostenlos oder bezahlt)
- Kontextfenstergröße
- Fähigkeiten (Vision, Reasoning, Tools)
Wenn Sie ein Modell auswählen, erscheint eine Info-Karte unter dem Dropdown, die Preise (Input/Output pro Million Tokens), Kontextfenstergröße, maximale Ausgabe-Tokens und Fähigkeits-Tags zeigt. Dies hilft Ihnen, das richtige Modell für Ihre Aufgabe zu wählen.
System-Prompt
Anweisungen, die zu Beginn jedes Gesprächs an das Modell gesendet werden. Definiert das Verhalten, die Persönlichkeit und die Einschränkungen des Bots. Siehe System-Prompts für detaillierte Anleitung und Vorlagen.
Das System-Prompt-Feld enthält ein Vorlagen-Dropdown mit 5 integrierten Voreinstellungen. Wählen Sie eine Vorlage und passen Sie sie an Ihre Bedürfnisse an.
Temperatur
Steuert die Zufälligkeit/Kreativität der Antworten.
| Wert | Verhalten |
|---|---|
| 0 | Deterministisch -- wählt immer das wahrscheinlichste Token |
| 0,3 | Konservativ -- fokussierte, konsistente Antworten |
| 0,7 | Ausgewogen (Standard) -- gute Mischung aus Kreativität und Kohärenz |
| 1,0 | Kreativ -- variablere Antworten |
| 1,5-2,0 | Sehr kreativ -- unvorhersehbar, experimentell |
Max. Tokens
Maximale Anzahl von Tokens, die das Modell in einer einzelnen Antwort generieren kann. Bereich: 128 bis 16.384 (oder höher für Modelle, die es unterstützen). Standard: 4.096.
Das Setzen von Max. Tokens zu niedrig kann dazu führen, dass Antworten mitten im Satz abgeschnitten werden. Zu hoch erhöht möglicherweise die Kosten bei bezahlten Modellen. 4.096 ist ein guter Standard für die meisten Anwendungsfälle.
Erweiterte Felder
Erweitern Sie den Erweitert-Abschnitt im Konfigurations-Panel, um auf diese Parameter zuzugreifen.
Reasoning / Thinking-Aufwand
Für Modelle, die Extended Thinking unterstützen (Claude, GPT o-Serie, DeepSeek R1, Gemini Thinking-Modelle), steuert dies, wie viel Rechenleistung das Modell für Reasoning vor dem Antworten aufwendet.
| Wert | Beschreibung |
|---|---|
| Aus | Kein Extended Thinking (Standardantwort) |
| Niedrig | Minimales Reasoning, schnellste Antworten |
| Mittel | Moderate Reasoning-Tiefe |
| Hoch | Tiefes Reasoning, gründlicher |
| Höchstes | Maximaler Reasoning-Aufwand |
| Benutzerdefiniert | Einen benutzerdefinierten Budget-Token-Wert setzen |
Nicht alle Modelle unterstützen Reasoning/Thinking-Modus. Das Feld erscheint nur, wenn das ausgewählte Modell oder der Anbieter es unterstützt. Modelle, von denen bekannt ist, dass sie Reasoning unterstützen, sind Anthropic Claude (Extended Thinking), OpenAI o1/o3-Serie, DeepSeek R1, xAI Grok und Google Gemini Thinking-Modelle.
Top P (Nucleus Sampling)
Steuert den kumulierten Wahrscheinlichkeitsschwellwert für die Token-Auswahl. Standard: 1,0 (keine Filterung).
1,0-- alle Tokens berücksichtigen (Standard)0,9-- Tokens berücksichtigen, die die oberen 90% der Wahrscheinlichkeitsmasse ausmachen0,1-- sehr restriktiv, fast deterministisch
Es wird generell empfohlen, entweder Temperatur oder Top P anzupassen, nicht beide gleichzeitig. Das Ändern beider kann unvorhersehbare Ergebnisse produzieren.
Frequency Penalty
Reduziert die Wahrscheinlichkeit, dass das Modell Tokens wiederholt, die bereits erschienen sind. Bereich: 0 bis 2. Standard: 0.
0-- keine Strafe (Standard)0,5-- milde Reduzierung von Wiederholungen1,0-2,0-- starke Reduzierung von Wiederholungen
Presence Penalty
Ermutigt das Modell, über neue Themen zu sprechen, indem Tokens bestraft werden, die überhaupt erschienen sind. Bereich: 0 bis 2. Standard: 0.
0-- keine Strafe (Standard)0,5-- milde Themenvielfalt-Ermutigung1,0-2,0-- starker Druck zu neuen Themen
Seed
Ein ganzzahliger Wert für reproduzierbare Ausgaben. Wenn derselbe Seed, Prompt und dieselben Parameter verwendet werden, versucht das Modell, dieselbe Antwort zurückzugeben. Nicht alle Anbieter unterstützen diese Funktion.
Stop Sequences
Eine kommagetrennte Liste benutzerdefinierter Stop-Tokens. Wenn das Modell eine dieser Sequenzen generiert, stoppt es die weitere Ausgabe. Nützlich für strukturierte Ausgabe oder Rollenspiel-Szenarien.
Beispiel: END,---,</answer> veranlasst das Modell zu stoppen, wenn es END, --- oder </answer> generiert.
Response Format
Steuert das Ausgabeformat:
| Wert | Beschreibung |
|---|---|
text | Standard-Textausgabe (Standard) |
json | Erzwingt JSON-Ausgabe (Modell muss strukturierte Ausgabe unterstützen) |
Der JSON-Modus erfordert, dass der System-Prompt das Modell anweist, JSON zu produzieren. Das einfache Setzen des Antwortformats auf JSON ohne Erwähnung im Prompt kann zu Fehlern oder fehlerhafter Ausgabe führen.
Tool Calling
Konfigurieren Sie Funktions-/Tool-Calling für Modelle, die es unterstützen. Dies ist eine erweiterte Funktion zum Erstellen von Bots, die externe Tools oder strukturierte Aktionen aufrufen können.
Pro-Bot-API-Schlüssel
Jeder Bot kann einen anderen API-Schlüssel als den globalen Schlüssel verwenden:
- Finden Sie das Feld API-Schlüssel im Konfigurations-Panel (unter dem Anbieter-Auswähler)
- Geben Sie einen Schlüssel ein, der spezifisch für diesen Bot ist
- Dieser Schlüssel überschreibt den globalen Schlüssel nur für diesen Bot
Pro-Bot-Schlüssel werden lokal gespeichert und niemals in geteilten Bot-URLs eingeschlossen.
Config-Kurzschrift-Schlüssel
Intern verwenden Bot-Konfigurationen kurze Schlüssel für effiziente URL-Komprimierung. Dies ist nützlich, wenn Sie Integrationen erstellen oder geteilte URLs debuggen:
| Kurzer Schlüssel | Vollständiger Name | Typ | Standard |
|---|---|---|---|
n | Name | string | "New Bot" |
p | Provider | string | "anthropic" |
m | Model | string | -- |
s | System Prompt | string | "" |
t | Temperature | number | 0,7 |
x | Max Tokens | number | 4096 |
tp | Top P | number | 1,0 |
fp | Frequency Penalty | number | 0 |
pp | Presence Penalty | number | 0 |
se | Seed | number | -- |
re | Reasoning Effort | string | -- |
st | Stop Sequences | string | -- |
rf | Response Format | string | "text" |
tc | Tool Choice | string | -- |
tl | Tool List | array | -- |
pi | Persona Icon | string | -- |
pd | Persona Description | string | -- |
pc | Persona Color | string | -- |
Council-Config (c-Schlüssel)
Wenn der Bot ein Council ist (2+ Mitglieder), enthält der c-Schlüssel:
| Kurzer Schlüssel | Vollständiger Name | Typ | Standard |
|---|---|---|---|
cs | Council Style | string | "council" |
ms | Members | array | -- |
ch | Chairman | number | 0 |
vm | Voting Mode | string | "weighted" |
sr | Skip Review | boolean | false |
mx | Max Tokens (pro Mitglied) | number | 1024 |
dr | Deliberation Rounds | number | 2 |
Chat-Einstellungen
Diese Pro-Bot-Einstellungen steuern das Chat-Erlebnis:
| Einstellung | Kurzer Schlüssel | Beschreibung | Standard |
|---|---|---|---|
| Context Limit | cl | Max. Nachrichten an die API gesendet (0 = unbegrenzt) | Unbegrenzt |
| Streaming | sm | Tokens in Echtzeit streamen | Aktiviert |
| Auto-Title | at | Gesprächstitel automatisch generieren | Deaktiviert |
| Markdown | mr | Markdown in Antworten rendern | Aktiviert |
| Show Token Count | stc | Token-Nutzung pro Nachricht anzeigen | Deaktiviert |
Raw-Config bearbeiten
Das Konfigurations-Panel bietet einen visuellen Editor für alle Felder. Sie müssen unter normaler Verwendung kein Raw-JSON bearbeiten. Das interne Format ist jedoch hier für Entwickler dokumentiert, die Integrationen, benutzerdefinierte Anbieter oder Tools erstellen, die Bot-Konfigurationen programmatisch generieren.
Beispiel Raw-Config:
{
"n": "Code Assistant",
"p": "anthropic",
"m": "claude-sonnet-4-20250514",
"s": "Du bist ein erfahrener Software-Ingenieur. Liefere klaren, gut dokumentierten Code mit Erklärungen.",
"t": 0.3,
"x": 8192,
"pi": "💻",
"pd": "Software-Ingenieur-Assistent",
"pc": "#4a90d9"
}