Pular para o conteúdo principal

Configuração de Bot

Todo bot no AISCouncil é definido por um objeto de configuração que controla seu provedor, modelo, comportamento e aparência. Esta página documenta o esquema de configuração completo e explica cada campo.

O Painel de Configuração

O painel de configuração desliza do lado direito da tela. É visível por padrão no desktop e acessível via ícone de configurações no mobile. O painel contém:

  • Seletores de provedor e modelo no topo
  • Área de texto do prompt do sistema
  • Parâmetros de geração (temperatura, máx. tokens, etc.)
  • Configurações avançadas (seção expansível)
  • Configurações de persona (ícone, descrição, cor)
  • Campo de chave de API por bot

Mudanças são salvas automaticamente conforme você edita.

Campos Principais

Provedor

O provedor de LLM que hospeda o modelo. Selecione no menu suspenso:

ProvedorFonte da Chave de APINotas
Anthropicconsole.anthropic.comModelos Claude -- raciocínio avançado
OpenAIplatform.openai.comGPT-4o, o3, DALL-E
xAIconsole.x.aiModelos Grok
Google Geminiaistudio.google.comCamada Flash gratuita disponível
OpenRouteropenrouter.aiMais de 300 modelos, camada gratuita
Groqconsole.groq.comInferência LPU ultra-rápida
DeepSeekplatform.deepseek.comModelos de raciocínio R1 e V3
Mistralconsole.mistral.aiLarge, Small, Codestral
OllamaN/A (local)Executa localmente, sem chave de API necessária
CustomDefinido pelo usuárioQualquer endpoint compatível com OpenAI

Mudar o provedor atualiza o menu suspenso de modelos para mostrar modelos disponíveis para aquele provedor.

Modelo

O modelo específico do provedor selecionado. O menu suspenso é populado do registro de modelos da comunidade e mostra:

  • Nome e ID do modelo
  • Faixa de preço (gratuito ou pago)
  • Tamanho da janela de contexto
  • Recursos (visão, raciocínio, ferramentas)
Cartão de info do modelo

Quando você seleciona um modelo, um cartão de informações aparece abaixo do menu suspenso mostrando preços (entrada/saída por milhão de tokens), tamanho da janela de contexto, máx. tokens de saída e tags de recursos. Isso ajuda a escolher o modelo certo para sua tarefa.

Prompt do Sistema

Instruções enviadas ao modelo no início de toda conversa. Define o comportamento, personalidade e restrições do bot. Veja Prompts do Sistema para orientação detalhada e modelos.

O campo de prompt do sistema inclui um menu suspenso de modelos com 5 predefinições integradas. Selecione um modelo e personalize às suas necessidades.

Temperatura

Controla aleatoriedade/criatividade das respostas.

ValorComportamento
0Determinístico -- sempre escolhe o token mais provável
0.3Conservador -- respostas focadas e consistentes
0.7Equilibrado (padrão) -- boa mistura de criatividade e coerência
1.0Criativo -- respostas mais variadas
1.5-2.0Muito criativo -- imprevisível, experimental

Máx. Tokens

Número máximo de tokens que o modelo pode gerar em uma única resposta. Intervalo: 128 a 16.384 (ou maior para modelos que suportam). Padrão: 4.096.

dica

Definir máx. tokens muito baixo pode causar respostas cortadas no meio da frase. Definir muito alto pode aumentar custos para modelos pagos. 4.096 é um bom padrão para a maioria dos casos de uso.

Campos Avançados

Expanda a seção Avançado no painel de configuração para acessar estes parâmetros.

Esforço de Raciocínio / Pensamento

Para modelos que suportam pensamento estendido (Claude, série o da GPT, DeepSeek R1, modelos thinking Gemini), isso controla quanto computação o modelo gasta raciocinando antes de responder.

ValorDescrição
DesligadoSem pensamento estendido (resposta padrão)
BaixoRaciocínio mínimo, respostas mais rápidas
MédioProfundidade de raciocínio moderada
AltoRaciocínio profundo, mais completo
MáximoEsforço máximo de raciocínio
PersonalizadoDefinir uma contagem personalizada de tokens de orçamento
observação

Nem todos os modelos suportam modo pensamento/raciocínio. O campo só aparece quando o modelo ou provedor selecionado o suporta. Modelos conhecidos por suportar raciocínio incluem Anthropic Claude (extended thinking), série o1/o3 OpenAI, DeepSeek R1, xAI Grok e modelos thinking Google Gemini.

Top P (Amostragem de Núcleo)

Controla o limiar de probabilidade cumulativa para seleção de tokens. Padrão: 1.0 (sem filtragem).

  • 1.0 -- considerar todos os tokens (padrão)
  • 0.9 -- considerar tokens compreendendo os 90% superiores de massa de probabilidade
  • 0.1 -- muito restritivo, quase determinístico
aviso

Geralmente é recomendado ajustar Temperatura ou Top P, não ambos ao mesmo tempo. Mudar ambos pode produzir resultados imprevisíveis.

Penalidade de Frequência

Reduz a probabilidade do modelo repetir tokens que já apareceram. Intervalo: 0 a 2. Padrão: 0.

  • 0 -- sem penalidade (padrão)
  • 0.5 -- redução leve de repetição
  • 1.0-2.0 -- redução forte de repetição

Penalidade de Presença

Encoraja o modelo a falar sobre novos tópicos penalizando tokens que apareceram absolutamente. Intervalo: 0 a 2. Padrão: 0.

  • 0 -- sem penalidade (padrão)
  • 0.5 -- encorajamento leve de diversidade de tópicos
  • 1.0-2.0 -- forte impulso para novos tópicos

Seed

Um valor inteiro para saídas reproduzíveis. Quando a mesma seed, prompt e parâmetros são usados, o modelo tenta retornar a mesma resposta. Nem todos os provedores suportam este recurso.

Sequências de Parada

Uma lista separada por vírgulas de tokens de parada personalizados. Quando o modelo gera qualquer destes tokens, para de produzir mais saída. Útil para saída estruturada ou cenários de RPG.

Exemplo: END,---,</answer> faz o modelo parar quando gera END, --- ou </answer>.

Formato de Resposta

Controla o formato de saída:

ValorDescrição
textSaída de texto padrão (padrão)
jsonForça saída JSON (modelo deve suportar saída estruturada)
observação

Modo JSON requer que o prompt do sistema instrua o modelo a produzir JSON. Simplesmente definir formato de resposta como JSON sem mencioná-lo no prompt pode resultar em erros ou saída malformada.

Chamada de Ferramentas

Configure chamada de função/ferramenta para modelos que suportam. Este é um recurso avançado para construir bots que podem invocar ferramentas externas ou ações estruturadas.

Chave de API Por Bot

Cada bot pode usar uma chave de API diferente da chave global:

  1. Encontre o campo Chave de API no painel de configuração (abaixo do seletor de provedor)
  2. Insira uma chave específica para este bot
  3. Esta chave substitui a chave global para este bot apenas

Chaves por bot são armazenadas localmente e nunca são incluídas em URLs de bots compartilhados.

Chaves Curtas de Configuração

Internamente, configurações de bots usam chaves curtas para compressão eficiente de URL. Isso é útil se você está construindo integrações ou depurando URLs compartilhados:

Chave CurtaNome CompletoTipoPadrão
nNomestring"New Bot"
pProvedorstring"anthropic"
mModelostring--
sPrompt do Sistemastring""
tTemperaturanumber0.7
xMáx. Tokensnumber4096
tpTop Pnumber1.0
fpPenalidade de Frequêncianumber0
ppPenalidade de Presençanumber0
seSeednumber--
reEsforço de Raciocíniostring--
stSequências de Paradastring--
rfFormato de Respostastring"text"
tcEscolha de Ferramentastring--
tlLista de Ferramentasarray--
piÍcone de Personastring--
pdDescrição de Personastring--
pcCor de Personastring--

Config de Conselho (chave c)

Quando o bot é um conselho (2+ membros), a chave c contém:

Chave CurtaNome CompletoTipoPadrão
csEstilo de Conselhostring"council"
msMembrosarray--
chPresidentenumber0
vmModo de Votaçãostring"weighted"
srPular Revisãobooleanfalse
mxMáx. Tokens (por membro)number1024
drRodadas de Deliberaçãonumber2

Configurações de Chat

Estas configurações por bot controlam a experiência de chat:

ConfiguraçãoChave CurtaDescriçãoPadrão
Limite de ContextoclMáx. mensagens enviadas à API (0 = ilimitado)Ilimitado
StreamingsmTransmitir tokens em tempo realHabilitado
Auto-TítuloatGerar títulos de conversa automaticamenteDesabilitado
MarkdownmrRenderizar markdown nas respostasHabilitado
Mostrar Contagem de TokensstcExibir uso de tokens por mensagemDesabilitado

Editando Configuração Raw

O painel de configuração fornece um editor visual para todos os campos. Você não precisa editar JSON raw sob uso normal. No entanto, o formato interno está documentado aqui para desenvolvedores construindo integrações, provedores personalizados ou ferramentas que geram configurações de bot programaticamente.

Exemplo de configuração raw:

{
"n": "Assistente de Código",
"p": "anthropic",
"m": "claude-sonnet-4-20250514",
"s": "Você é um engenheiro de software especialista. Forneça código claro e bem documentado com explicações.",
"t": 0.3,
"x": 8192,
"pi": "💻",
"pd": "Assistente de engenharia de software",
"pc": "#4a90d9"
}