Onde selecionar o modelo
Abra a aba de Modelo
Clique na aba Modelo nas configurações do agente. O diálogo de configuração exibe três colunas: provedores, modelos disponíveis e parâmetros de comportamento.
Selecione o provedor
Na coluna da esquerda, escolha o provedor: OpenAI, Anthropic, Google ou OpenRouter. A coluna central atualiza com os modelos disponíveis para o provedor selecionado.
Como funcionam os provedores
A Timely.ai disponibiliza dois modos de acesso aos modelos: usando os créditos da plataforma (acesso via Timely) ou conectando sua própria chave de API de um provedor externo.Opção 1 — Usando os créditos da Timely
Cada modelo consome um número fixo de créditos por execução. Você não precisa criar contas nos provedores — a Timely gerencia a autenticação e o faturamento.Selecione qualquer modelo disponível
Todos os modelos listados na interface estão disponíveis imediatamente se você tiver créditos no workspace.
Verifique o custo em créditos
Cada modelo exibe o custo estimado por execução. O consumo real varia conforme o tamanho do prompt, histórico da conversa e número de chamadas a ferramentas na mesma execução.
Monitore o consumo
Acompanhe o consumo de créditos em Configurações > Faturamento para ajustar o modelo conforme o volume de conversas cresce.
Opção 2 — Conectando seu próprio provedor
Workspaces no plano Enterprise podem configurar provedores customizados, conectando modelos com chaves de API próprias ou modelos open source hospedados em infraestrutura interna.Acesse as configurações do workspace
Vá para Configurações do Workspace > Modelos de IA no menu de administração.
Adicione as credenciais do provedor
Insira a API key do provedor (OpenAI, Anthropic ou Google). A chave é armazenada com criptografia e usada exclusivamente para as execuções do seu workspace.
Selecione o provedor customizado no agente
Ao configurar o modelo do agente, o provedor customizado aparece como opção adicional na coluna de provedores.
A configuração de provedores customizados requer plano Enterprise. Entre em contato com o suporte para habilitar esse recurso no seu workspace.
Trocando o modelo por agente
Cada agente pode usar um modelo diferente dentro do mesmo workspace. Isso permite otimizar custo e performance por caso de uso:- Agentes de FAQ de alto volume usam modelos mais baratos (Kimi K2.5 ou Gemini 2.5 Flash)
- Agentes de análise complexa usam modelos de alta capacidade (Claude Opus 4.6 ou Gemini 3.1 Pro)
- Agentes de suporte geral usam modelos de equilíbrio (Claude Sonnet 4.6, marcado como recomendado)
- Modelos GPT-5.x da OpenAI desabilitam temperatura — o slider fica inativo automaticamente
- Modelos Anthropic com raciocínio ativo forçam temperatura para 1,0 — o controle de temperatura não tem efeito
Boas práticas
- Comece sempre com Claude Sonnet 4.6 — é o modelo recomendado pela plataforma para a maioria dos casos de uso, com bom equilíbrio entre qualidade (4 créditos/execução), velocidade e suporte a ferramentas
- Teste qualquer troca de modelo no Chat interno com perguntas representativas antes de aplicar em produção
- Monitore a latência após trocar para modelos maiores — modelos como Claude Opus 4.6 e Gemini 3.1 Pro têm latência mais alta que pode afetar a experiência em canais de mensageria
- Não troque o modelo baseado apenas no custo — compare a qualidade das respostas nos cenários reais do seu caso de uso antes de migrar