Zum Hauptinhalt springen

Bot-Konfiguration

Jeder Bot in AISCouncil wird durch ein Konfigurationsobjekt definiert, das seinen Anbieter, sein Modell, sein Verhalten und sein Aussehen steuert. Diese Seite dokumentiert das vollständige Konfigurationsschema und erklärt jedes Feld.

Das Konfigurations-Panel

Das Konfigurations-Panel schiebt sich von der rechten Seite des Bildschirms heraus. Es ist standardmäßig auf dem Desktop sichtbar und über das Einstellungen-Symbol auf Mobilgeräten zugänglich. Das Panel enthält:

  • Anbieter- und Modell-Auswähler oben
  • System-Prompt-Textbereich
  • Generierungsparameter (Temperatur, Max. Tokens, etc.)
  • Erweiterte Einstellungen (erweiterbarer Abschnitt)
  • Persona-Einstellungen (Symbol, Beschreibung, Farbe)
  • Pro-Bot-API-Schlüssel-Feld

Änderungen werden beim Bearbeiten automatisch gespeichert.

Kernfelder

Anbieter

Der LLM-Anbieter, der das Modell hostet. Wählen Sie aus dem Dropdown:

AnbieterAPI-Schlüssel-QuelleHinweise
Anthropicconsole.anthropic.comClaude-Modelle -- fortgeschrittenes Reasoning
OpenAIplatform.openai.comGPT-4o, o3, DALL-E
xAIconsole.x.aiGrok-Modelle
Google Geminiaistudio.google.comKostenlose Flash-Stufe verfügbar
OpenRouteropenrouter.ai300+ Modelle, kostenlose Stufe
Groqconsole.groq.comUltraschnelle LPU-Inferenz
DeepSeekplatform.deepseek.comR1 und V3 Reasoning-Modelle
Mistralconsole.mistral.aiLarge, Small, Codestral
OllamaN/A (lokal)Läuft lokal, kein API-Schlüssel benötigt
CustomBenutzerdefiniertJeder OpenAI-kompatible Endpunkt

Das Ändern des Anbieters aktualisiert das Modell-Dropdown, um verfügbare Modelle für diesen Anbieter anzuzeigen.

Modell

Das spezifische Modell vom ausgewählten Anbieter. Das Dropdown wird aus der Community-Modell-Registry gefüllt und zeigt:

  • Modellname und -ID
  • Preisstufe (kostenlos oder bezahlt)
  • Kontextfenstergröße
  • Fähigkeiten (Vision, Reasoning, Tools)
Modell-Info-Karte

Wenn Sie ein Modell auswählen, erscheint eine Info-Karte unter dem Dropdown, die Preise (Input/Output pro Million Tokens), Kontextfenstergröße, maximale Ausgabe-Tokens und Fähigkeits-Tags zeigt. Dies hilft Ihnen, das richtige Modell für Ihre Aufgabe zu wählen.

System-Prompt

Anweisungen, die zu Beginn jedes Gesprächs an das Modell gesendet werden. Definiert das Verhalten, die Persönlichkeit und die Einschränkungen des Bots. Siehe System-Prompts für detaillierte Anleitung und Vorlagen.

Das System-Prompt-Feld enthält ein Vorlagen-Dropdown mit 5 integrierten Voreinstellungen. Wählen Sie eine Vorlage und passen Sie sie an Ihre Bedürfnisse an.

Temperatur

Steuert die Zufälligkeit/Kreativität der Antworten.

WertVerhalten
0Deterministisch -- wählt immer das wahrscheinlichste Token
0,3Konservativ -- fokussierte, konsistente Antworten
0,7Ausgewogen (Standard) -- gute Mischung aus Kreativität und Kohärenz
1,0Kreativ -- variablere Antworten
1,5-2,0Sehr kreativ -- unvorhersehbar, experimentell

Max. Tokens

Maximale Anzahl von Tokens, die das Modell in einer einzelnen Antwort generieren kann. Bereich: 128 bis 16.384 (oder höher für Modelle, die es unterstützen). Standard: 4.096.

Tipp

Das Setzen von Max. Tokens zu niedrig kann dazu führen, dass Antworten mitten im Satz abgeschnitten werden. Zu hoch erhöht möglicherweise die Kosten bei bezahlten Modellen. 4.096 ist ein guter Standard für die meisten Anwendungsfälle.

Erweiterte Felder

Erweitern Sie den Erweitert-Abschnitt im Konfigurations-Panel, um auf diese Parameter zuzugreifen.

Reasoning / Thinking-Aufwand

Für Modelle, die Extended Thinking unterstützen (Claude, GPT o-Serie, DeepSeek R1, Gemini Thinking-Modelle), steuert dies, wie viel Rechenleistung das Modell für Reasoning vor dem Antworten aufwendet.

WertBeschreibung
AusKein Extended Thinking (Standardantwort)
NiedrigMinimales Reasoning, schnellste Antworten
MittelModerate Reasoning-Tiefe
HochTiefes Reasoning, gründlicher
HöchstesMaximaler Reasoning-Aufwand
BenutzerdefiniertEinen benutzerdefinierten Budget-Token-Wert setzen
Hinweis

Nicht alle Modelle unterstützen Reasoning/Thinking-Modus. Das Feld erscheint nur, wenn das ausgewählte Modell oder der Anbieter es unterstützt. Modelle, von denen bekannt ist, dass sie Reasoning unterstützen, sind Anthropic Claude (Extended Thinking), OpenAI o1/o3-Serie, DeepSeek R1, xAI Grok und Google Gemini Thinking-Modelle.

Top P (Nucleus Sampling)

Steuert den kumulierten Wahrscheinlichkeitsschwellwert für die Token-Auswahl. Standard: 1,0 (keine Filterung).

  • 1,0 -- alle Tokens berücksichtigen (Standard)
  • 0,9 -- Tokens berücksichtigen, die die oberen 90% der Wahrscheinlichkeitsmasse ausmachen
  • 0,1 -- sehr restriktiv, fast deterministisch
Warnung

Es wird generell empfohlen, entweder Temperatur oder Top P anzupassen, nicht beide gleichzeitig. Das Ändern beider kann unvorhersehbare Ergebnisse produzieren.

Frequency Penalty

Reduziert die Wahrscheinlichkeit, dass das Modell Tokens wiederholt, die bereits erschienen sind. Bereich: 0 bis 2. Standard: 0.

  • 0 -- keine Strafe (Standard)
  • 0,5 -- milde Reduzierung von Wiederholungen
  • 1,0-2,0 -- starke Reduzierung von Wiederholungen

Presence Penalty

Ermutigt das Modell, über neue Themen zu sprechen, indem Tokens bestraft werden, die überhaupt erschienen sind. Bereich: 0 bis 2. Standard: 0.

  • 0 -- keine Strafe (Standard)
  • 0,5 -- milde Themenvielfalt-Ermutigung
  • 1,0-2,0 -- starker Druck zu neuen Themen

Seed

Ein ganzzahliger Wert für reproduzierbare Ausgaben. Wenn derselbe Seed, Prompt und dieselben Parameter verwendet werden, versucht das Modell, dieselbe Antwort zurückzugeben. Nicht alle Anbieter unterstützen diese Funktion.

Stop Sequences

Eine kommagetrennte Liste benutzerdefinierter Stop-Tokens. Wenn das Modell eine dieser Sequenzen generiert, stoppt es die weitere Ausgabe. Nützlich für strukturierte Ausgabe oder Rollenspiel-Szenarien.

Beispiel: END,---,</answer> veranlasst das Modell zu stoppen, wenn es END, --- oder </answer> generiert.

Response Format

Steuert das Ausgabeformat:

WertBeschreibung
textStandard-Textausgabe (Standard)
jsonErzwingt JSON-Ausgabe (Modell muss strukturierte Ausgabe unterstützen)
Hinweis

Der JSON-Modus erfordert, dass der System-Prompt das Modell anweist, JSON zu produzieren. Das einfache Setzen des Antwortformats auf JSON ohne Erwähnung im Prompt kann zu Fehlern oder fehlerhafter Ausgabe führen.

Tool Calling

Konfigurieren Sie Funktions-/Tool-Calling für Modelle, die es unterstützen. Dies ist eine erweiterte Funktion zum Erstellen von Bots, die externe Tools oder strukturierte Aktionen aufrufen können.

Pro-Bot-API-Schlüssel

Jeder Bot kann einen anderen API-Schlüssel als den globalen Schlüssel verwenden:

  1. Finden Sie das Feld API-Schlüssel im Konfigurations-Panel (unter dem Anbieter-Auswähler)
  2. Geben Sie einen Schlüssel ein, der spezifisch für diesen Bot ist
  3. Dieser Schlüssel überschreibt den globalen Schlüssel nur für diesen Bot

Pro-Bot-Schlüssel werden lokal gespeichert und niemals in geteilten Bot-URLs eingeschlossen.

Config-Kurzschrift-Schlüssel

Intern verwenden Bot-Konfigurationen kurze Schlüssel für effiziente URL-Komprimierung. Dies ist nützlich, wenn Sie Integrationen erstellen oder geteilte URLs debuggen:

Kurzer SchlüsselVollständiger NameTypStandard
nNamestring"New Bot"
pProviderstring"anthropic"
mModelstring--
sSystem Promptstring""
tTemperaturenumber0,7
xMax Tokensnumber4096
tpTop Pnumber1,0
fpFrequency Penaltynumber0
ppPresence Penaltynumber0
seSeednumber--
reReasoning Effortstring--
stStop Sequencesstring--
rfResponse Formatstring"text"
tcTool Choicestring--
tlTool Listarray--
piPersona Iconstring--
pdPersona Descriptionstring--
pcPersona Colorstring--

Council-Config (c-Schlüssel)

Wenn der Bot ein Council ist (2+ Mitglieder), enthält der c-Schlüssel:

Kurzer SchlüsselVollständiger NameTypStandard
csCouncil Stylestring"council"
msMembersarray--
chChairmannumber0
vmVoting Modestring"weighted"
srSkip Reviewbooleanfalse
mxMax Tokens (pro Mitglied)number1024
drDeliberation Roundsnumber2

Chat-Einstellungen

Diese Pro-Bot-Einstellungen steuern das Chat-Erlebnis:

EinstellungKurzer SchlüsselBeschreibungStandard
Context LimitclMax. Nachrichten an die API gesendet (0 = unbegrenzt)Unbegrenzt
StreamingsmTokens in Echtzeit streamenAktiviert
Auto-TitleatGesprächstitel automatisch generierenDeaktiviert
MarkdownmrMarkdown in Antworten rendernAktiviert
Show Token CountstcToken-Nutzung pro Nachricht anzeigenDeaktiviert

Raw-Config bearbeiten

Das Konfigurations-Panel bietet einen visuellen Editor für alle Felder. Sie müssen unter normaler Verwendung kein Raw-JSON bearbeiten. Das interne Format ist jedoch hier für Entwickler dokumentiert, die Integrationen, benutzerdefinierte Anbieter oder Tools erstellen, die Bot-Konfigurationen programmatisch generieren.

Beispiel Raw-Config:

{
"n": "Code Assistant",
"p": "anthropic",
"m": "claude-sonnet-4-20250514",
"s": "Du bist ein erfahrener Software-Ingenieur. Liefere klaren, gut dokumentierten Code mit Erklärungen.",
"t": 0.3,
"x": 8192,
"pi": "💻",
"pd": "Software-Ingenieur-Assistent",
"pc": "#4a90d9"
}