Skip to main content
O modelo de linguagem define a inteligência, a velocidade e o custo de cada execução do agente. A Timely.ai suporta quatro provedores com acesso a múltiplos modelos — cada agente pode usar um modelo diferente.

Onde selecionar o modelo

1

Acesse as configurações do agente

Na lista de agentes, clique no agente que deseja configurar.
2

Abra a aba de Modelo

Clique na aba Modelo nas configurações do agente. O diálogo de configuração exibe três colunas: provedores, modelos disponíveis e parâmetros de comportamento.
3

Selecione o provedor

Na coluna da esquerda, escolha o provedor: OpenAI, Anthropic, Google ou OpenRouter. A coluna central atualiza com os modelos disponíveis para o provedor selecionado.
4

Selecione o modelo e salve

Clique no modelo desejado na lista central. Ajuste temperatura e effort na seção inferior e clique em Salvar configurações. A mudança entra em vigor na próxima execução.

Como funcionam os provedores

A Timely.ai disponibiliza dois modos de acesso aos modelos: usando os créditos da plataforma (acesso via Timely) ou conectando sua própria chave de API de um provedor externo.

Opção 1 — Usando os créditos da Timely

Cada modelo consome um número fixo de créditos por execução. Você não precisa criar contas nos provedores — a Timely gerencia a autenticação e o faturamento.
1

Selecione qualquer modelo disponível

Todos os modelos listados na interface estão disponíveis imediatamente se você tiver créditos no workspace.
2

Verifique o custo em créditos

Cada modelo exibe o custo estimado por execução. O consumo real varia conforme o tamanho do prompt, histórico da conversa e número de chamadas a ferramentas na mesma execução.
3

Monitore o consumo

Acompanhe o consumo de créditos em Configurações > Faturamento para ajustar o modelo conforme o volume de conversas cresce.
4

Recarregue créditos quando necessário

Créditos podem ser recarregados a qualquer momento pelo painel de faturamento. Agentes sem créditos disponíveis pausam automaticamente as respostas.

Opção 2 — Conectando seu próprio provedor

Workspaces no plano Enterprise podem configurar provedores customizados, conectando modelos com chaves de API próprias ou modelos open source hospedados em infraestrutura interna.
1

Acesse as configurações do workspace

Vá para Configurações do Workspace > Modelos de IA no menu de administração.
2

Adicione as credenciais do provedor

Insira a API key do provedor (OpenAI, Anthropic ou Google). A chave é armazenada com criptografia e usada exclusivamente para as execuções do seu workspace.
3

Selecione o provedor customizado no agente

Ao configurar o modelo do agente, o provedor customizado aparece como opção adicional na coluna de provedores.
4

Confirme a conexão com um teste

Use o Chat interno para enviar uma mensagem de teste e confirmar que o provedor customizado está respondendo corretamente antes de publicar o agente em produção.
A configuração de provedores customizados requer plano Enterprise. Entre em contato com o suporte para habilitar esse recurso no seu workspace.

Trocando o modelo por agente

Cada agente pode usar um modelo diferente dentro do mesmo workspace. Isso permite otimizar custo e performance por caso de uso:
  • Agentes de FAQ de alto volume usam modelos mais baratos (Kimi K2.5 ou Gemini 2.5 Flash)
  • Agentes de análise complexa usam modelos de alta capacidade (Claude Opus 4.6 ou Gemini 3.1 Pro)
  • Agentes de suporte geral usam modelos de equilíbrio (Claude Sonnet 4.6, marcado como recomendado)
  • Modelos GPT-5.x da OpenAI desabilitam temperatura — o slider fica inativo automaticamente
  • Modelos Anthropic com raciocínio ativo forçam temperatura para 1,0 — o controle de temperatura não tem efeito

Boas práticas

  • Comece sempre com Claude Sonnet 4.6 — é o modelo recomendado pela plataforma para a maioria dos casos de uso, com bom equilíbrio entre qualidade (4 créditos/execução), velocidade e suporte a ferramentas
  • Teste qualquer troca de modelo no Chat interno com perguntas representativas antes de aplicar em produção
  • Monitore a latência após trocar para modelos maiores — modelos como Claude Opus 4.6 e Gemini 3.1 Pro têm latência mais alta que pode afetar a experiência em canais de mensageria
  • Não troque o modelo baseado apenas no custo — compare a qualidade das respostas nos cenários reais do seu caso de uso antes de migrar