Configuração de Bot
Todo bot no AISCouncil é definido por um objeto de configuração que controla seu provedor, modelo, comportamento e aparência. Esta página documenta o esquema de configuração completo e explica cada campo.
O Painel de Configuração
O painel de configuração desliza do lado direito da tela. É visível por padrão no desktop e acessível via ícone de configurações no mobile. O painel contém:
- Seletores de provedor e modelo no topo
- Área de texto do prompt do sistema
- Parâmetros de geração (temperatura, máx. tokens, etc.)
- Configurações avançadas (seção expansível)
- Configurações de persona (ícone, descrição, cor)
- Campo de chave de API por bot
Mudanças são salvas automaticamente conforme você edita.
Campos Principais
Provedor
O provedor de LLM que hospeda o modelo. Selecione no menu suspenso:
| Provedor | Fonte da Chave de API | Notas |
|---|---|---|
| Anthropic | console.anthropic.com | Modelos Claude -- raciocínio avançado |
| OpenAI | platform.openai.com | GPT-4o, o3, DALL-E |
| xAI | console.x.ai | Modelos Grok |
| Google Gemini | aistudio.google.com | Camada Flash gratuita disponível |
| OpenRouter | openrouter.ai | Mais de 300 modelos, camada gratuita |
| Groq | console.groq.com | Inferência LPU ultra-rápida |
| DeepSeek | platform.deepseek.com | Modelos de raciocínio R1 e V3 |
| Mistral | console.mistral.ai | Large, Small, Codestral |
| Ollama | N/A (local) | Executa localmente, sem chave de API necessária |
| Custom | Definido pelo usuário | Qualquer endpoint compatível com OpenAI |
Mudar o provedor atualiza o menu suspenso de modelos para mostrar modelos disponíveis para aquele provedor.
Modelo
O modelo específico do provedor selecionado. O menu suspenso é populado do registro de modelos da comunidade e mostra:
- Nome e ID do modelo
- Faixa de preço (gratuito ou pago)
- Tamanho da janela de contexto
- Recursos (visão, raciocínio, ferramentas)
Quando você seleciona um modelo, um cartão de informações aparece abaixo do menu suspenso mostrando preços (entrada/saída por milhão de tokens), tamanho da janela de contexto, máx. tokens de saída e tags de recursos. Isso ajuda a escolher o modelo certo para sua tarefa.
Prompt do Sistema
Instruções enviadas ao modelo no início de toda conversa. Define o comportamento, personalidade e restrições do bot. Veja Prompts do Sistema para orientação detalhada e modelos.
O campo de prompt do sistema inclui um menu suspenso de modelos com 5 predefinições integradas. Selecione um modelo e personalize às suas necessidades.
Temperatura
Controla aleatoriedade/criatividade das respostas.
| Valor | Comportamento |
|---|---|
| 0 | Determinístico -- sempre escolhe o token mais provável |
| 0.3 | Conservador -- respostas focadas e consistentes |
| 0.7 | Equilibrado (padrão) -- boa mistura de criatividade e coerência |
| 1.0 | Criativo -- respostas mais variadas |
| 1.5-2.0 | Muito criativo -- imprevisível, experimental |
Máx. Tokens
Número máximo de tokens que o modelo pode gerar em uma única resposta. Intervalo: 128 a 16.384 (ou maior para modelos que suportam). Padrão: 4.096.
Definir máx. tokens muito baixo pode causar respostas cortadas no meio da frase. Definir muito alto pode aumentar custos para modelos pagos. 4.096 é um bom padrão para a maioria dos casos de uso.
Campos Avançados
Expanda a seção Avançado no painel de configuração para acessar estes parâmetros.
Esforço de Raciocínio / Pensamento
Para modelos que suportam pensamento estendido (Claude, série o da GPT, DeepSeek R1, modelos thinking Gemini), isso controla quanto computação o modelo gasta raciocinando antes de responder.
| Valor | Descrição |
|---|---|
| Desligado | Sem pensamento estendido (resposta padrão) |
| Baixo | Raciocínio mínimo, respostas mais rápidas |
| Médio | Profundidade de raciocínio moderada |
| Alto | Raciocínio profundo, mais completo |
| Máximo | Esforço máximo de raciocínio |
| Personalizado | Definir uma contagem personalizada de tokens de orçamento |
Nem todos os modelos suportam modo pensamento/raciocínio. O campo só aparece quando o modelo ou provedor selecionado o suporta. Modelos conhecidos por suportar raciocínio incluem Anthropic Claude (extended thinking), série o1/o3 OpenAI, DeepSeek R1, xAI Grok e modelos thinking Google Gemini.
Top P (Amostragem de Núcleo)
Controla o limiar de probabilidade cumulativa para seleção de tokens. Padrão: 1.0 (sem filtragem).
1.0-- considerar todos os tokens (padrão)0.9-- considerar tokens compreendendo os 90% superiores de massa de probabilidade0.1-- muito restritivo, quase determinístico
Geralmente é recomendado ajustar Temperatura ou Top P, não ambos ao mesmo tempo. Mudar ambos pode produzir resultados imprevisíveis.
Penalidade de Frequência
Reduz a probabilidade do modelo repetir tokens que já apareceram. Intervalo: 0 a 2. Padrão: 0.
0-- sem penalidade (padrão)0.5-- redução leve de repetição1.0-2.0-- redução forte de repetição
Penalidade de Presença
Encoraja o modelo a falar sobre novos tópicos penalizando tokens que apareceram absolutamente. Intervalo: 0 a 2. Padrão: 0.
0-- sem penalidade (padrão)0.5-- encorajamento leve de diversidade de tópicos1.0-2.0-- forte impulso para novos tópicos
Seed
Um valor inteiro para saídas reproduzíveis. Quando a mesma seed, prompt e parâmetros são usados, o modelo tenta retornar a mesma resposta. Nem todos os provedores suportam este recurso.
Sequências de Parada
Uma lista separada por vírgulas de tokens de parada personalizados. Quando o modelo gera qualquer destes tokens, para de produzir mais saída. Útil para saída estruturada ou cenários de RPG.
Exemplo: END,---,</answer> faz o modelo parar quando gera END, --- ou </answer>.
Formato de Resposta
Controla o formato de saída:
| Valor | Descrição |
|---|---|
text | Saída de texto padrão (padrão) |
json | Força saída JSON (modelo deve suportar saída estruturada) |
Modo JSON requer que o prompt do sistema instrua o modelo a produzir JSON. Simplesmente definir formato de resposta como JSON sem mencioná-lo no prompt pode resultar em erros ou saída malformada.
Chamada de Ferramentas
Configure chamada de função/ferramenta para modelos que suportam. Este é um recurso avançado para construir bots que podem invocar ferramentas externas ou ações estruturadas.
Chave de API Por Bot
Cada bot pode usar uma chave de API diferente da chave global:
- Encontre o campo Chave de API no painel de configuração (abaixo do seletor de provedor)
- Insira uma chave específica para este bot
- Esta chave substitui a chave global para este bot apenas
Chaves por bot são armazenadas localmente e nunca são incluídas em URLs de bots compartilhados.
Chaves Curtas de Configuração
Internamente, configurações de bots usam chaves curtas para compressão eficiente de URL. Isso é útil se você está construindo integrações ou depurando URLs compartilhados:
| Chave Curta | Nome Completo | Tipo | Padrão |
|---|---|---|---|
n | Nome | string | "New Bot" |
p | Provedor | string | "anthropic" |
m | Modelo | string | -- |
s | Prompt do Sistema | string | "" |
t | Temperatura | number | 0.7 |
x | Máx. Tokens | number | 4096 |
tp | Top P | number | 1.0 |
fp | Penalidade de Frequência | number | 0 |
pp | Penalidade de Presença | number | 0 |
se | Seed | number | -- |
re | Esforço de Raciocínio | string | -- |
st | Sequências de Parada | string | -- |
rf | Formato de Resposta | string | "text" |
tc | Escolha de Ferramenta | string | -- |
tl | Lista de Ferramentas | array | -- |
pi | Ícone de Persona | string | -- |
pd | Descrição de Persona | string | -- |
pc | Cor de Persona | string | -- |
Config de Conselho (chave c)
Quando o bot é um conselho (2+ membros), a chave c contém:
| Chave Curta | Nome Completo | Tipo | Padrão |
|---|---|---|---|
cs | Estilo de Conselho | string | "council" |
ms | Membros | array | -- |
ch | Presidente | number | 0 |
vm | Modo de Votação | string | "weighted" |
sr | Pular Revisão | boolean | false |
mx | Máx. Tokens (por membro) | number | 1024 |
dr | Rodadas de Deliberação | number | 2 |
Configurações de Chat
Estas configurações por bot controlam a experiência de chat:
| Configuração | Chave Curta | Descrição | Padrão |
|---|---|---|---|
| Limite de Contexto | cl | Máx. mensagens enviadas à API (0 = ilimitado) | Ilimitado |
| Streaming | sm | Transmitir tokens em tempo real | Habilitado |
| Auto-Título | at | Gerar títulos de conversa automaticamente | Desabilitado |
| Markdown | mr | Renderizar markdown nas respostas | Habilitado |
| Mostrar Contagem de Tokens | stc | Exibir uso de tokens por mensagem | Desabilitado |
Editando Configuração Raw
O painel de configuração fornece um editor visual para todos os campos. Você não precisa editar JSON raw sob uso normal. No entanto, o formato interno está documentado aqui para desenvolvedores construindo integrações, provedores personalizados ou ferramentas que geram configurações de bot programaticamente.
Exemplo de configuração raw:
{
"n": "Assistente de Código",
"p": "anthropic",
"m": "claude-sonnet-4-20250514",
"s": "Você é um engenheiro de software especialista. Forneça código claro e bem documentado com explicações.",
"t": 0.3,
"x": 8192,
"pi": "💻",
"pd": "Assistente de engenharia de software",
"pc": "#4a90d9"
}