Google Gemini
O Google Gemini fornece modelos de IA poderosos com janelas de contexto massivas (até 1M tokens) e uma camada gratuita generosa que não requer cartão de crédito. Isso o torna um dos melhores pontos de partida para novos usuários.
Obtendo uma Chave de API Gratuita
- Vá para aistudio.google.com/apikey
- Entre com sua conta Google
- Clique em Criar chave de API
- Copie a chave (começa com
AIza...) - Cole no AISCouncil em Configurações > Modelo de IA > Google Gemini
A camada gratuita do Google Gemini é verdadeiramente gratuita -- sem cartão de crédito, sem configuração de cobrança, sem período de teste. Você pode começar a conversar imediatamente após gerar sua chave de API.
Modelos Suportados
| Modelo | Janela de Contexto | Máx. Saída | Camada | Limite de Taxa (Gratuito) | Recursos |
|---|---|---|---|---|---|
| Gemini 3 Pro Preview | 1M | 65K | Pago | -- | Visão, ferramentas, raciocínio, código |
| Gemini 3 Flash Preview | 1M | 65K | Gratuito | 10 RPM | Visão, ferramentas, código |
| Gemini 2.5 Pro | 1M | 65K | Pago | 5 RPM (camada gratuita) | Visão, ferramentas, raciocínio, código |
| Gemini 2.5 Flash | 1M | 65K | Gratuito | 10 RPM | Visão, ferramentas, código |
| Gemini 2.5 Flash-Lite | 1M | 65K | Gratuito | 30 RPM | Visão, código |
Limites de Taxa da Camada Gratuita
| Modelo | Solicitações/Min | Tokens/Min | Solicitações/Dia |
|---|---|---|---|
| Gemini 3 Flash Preview | 10 | 250K | 500 |
| Gemini 2.5 Flash | 10 | 250K | 500 |
| Gemini 2.5 Pro | 5 | 250K | 100 |
| Gemini 2.5 Flash-Lite | 30 | 250K | 1.500 |
RPM = solicitações por minuto, TPM = tokens por minuto, RPD = solicitações por dia.
Para limites de taxa mais altos, você pode habilitar cobrança na sua conta Google Cloud. Preços pagos para Gemini 2.5 Pro são $1.25/$10.00 por MTok (entrada/saída). Modelos gratuitos (Flash, Flash-Lite) permanecem gratuitos mesmo com cobrança habilitada.
Suporte a Pensamento / Raciocínio
Gemini 2.5 Pro e Gemini 3 Pro Preview suportam modo pensamento, onde o modelo raciocina através de um problema passo a passo antes de responder. A saída do pensamento aparece em um bloco recolhível acima da resposta.
Para habilitar pensamento, defina o Esforço de Raciocínio no painel de configuração do bot:
| Configuração | Tokens de Orçamento | Melhor Para |
|---|---|---|
low | 8.192 | Raciocínio rápido, problemas simples |
medium | 32.768 | Análise moderada |
high | 128.000 | Raciocínio profundo, problemas complexos |
max | Limite do modelo - 1024 | Profundidade máxima de raciocínio |
| Número personalizado | Seu valor | Controle ajustado |
O pensamento é implementado via parâmetro thinkingConfig do Gemini com um valor thinkingBudget. Quando pensamento está habilitado, o aplicativo aumenta automaticamente maxOutputTokens para acomodar tanto tokens de pensamento quanto de resposta. O conteúdo do pensamento é transmitido com uma flag thought: true nas partes da resposta.
Suporte a Visão
Todos os modelos Gemini suportam entrada de visão. Você pode:
- Colar imagens diretamente na entrada de chat (Ctrl+V / Cmd+V)
- Carregar imagens usando o botão de anexo
- Arrastar e soltar imagens na área de chat
Imagens são enviadas como dados base64 inline para a API Gemini. Modelos Gemini se destacam em tarefas multimodais -- analisando imagens, lendo documentos e compreendendo conteúdo visual.
Detalhes Técnicos
Gemini usa seu próprio formato de API nativo, que difere do formato compatível com OpenAI usado pela maioria dos outros provedores:
| Aspecto | Gemini | Compatível com OpenAI |
|---|---|---|
| Endpoint | generativelanguage.googleapis.com/v1beta | /v1/chat/completions |
| Auth | Parâmetro de consulta URL (?key=) | Header Bearer token |
| Mensagens | Array contents com role: "user"/"model" | Array messages com role: "user"/"assistant" |
| Prompt do sistema | Campo systemInstruction | Mensagem de sistema no array de mensagens |
| Streaming | Parâmetro ?alt=sse | stream: true no corpo |
O AISCouncil lida com todas as diferenças de formato automaticamente. Você não precisa se preocupar com o formato da API -- apenas selecione Gemini como provedor e comece a conversar.
Configuração
Ao criar um perfil de bot, selecione Google Gemini como provedor e escolha seu modelo preferido. Você pode definir uma chave de API por bot no painel de configuração do bot para substituir a chave global.
O provedor Gemini usa a API nativa streamGenerateContent com streaming SSE. Chaves de API são passadas como parâmetro de consulta URL (não um header), o que evita solicitações CORS preflight e melhora o desempenho.
Dicas para Melhores Resultados
- Comece aqui se você é novo. A camada gratuita do Gemini sem requisito de cartão de crédito torna-a a maneira de menor atrito para começar a usar o AISCouncil.
- Use Flash-Lite para tarefas de alto volume. Com 30 RPM gratuito, lida com consultas rápidas melhor do que qualquer outra opção gratuita.
- Aproveite a janela de contexto de 1M. Todos os modelos Gemini suportam 1 milhão de tokens de contexto -- você pode colar livros inteiros, bases de código ou coleções de documentos.
- Habilite pensamento para modelos Pro. Gemini 2.5 Pro com pensamento habilitado é competitivo com os melhores modelos de raciocínio de qualquer provedor.
- Combine com OpenRouter. Use Gemini para tarefas de camada gratuita e OpenRouter para acessar modelos de outros provedores, tudo sem cartão de crédito.