Skip to main content
Cada agente possui um conjunto de configurações que você acessa clicando no agente na lista e navegando pelas abas disponíveis. Alterações entram em vigor imediatamente para novas conversas — conversas já abertas não são afetadas.

Resumo

SeçãoO que configura
ModeloProvedor de LLM (OpenAI, Anthropic, Google, OpenRouter), modelo específico, temperatura e effort
Nome internoIdentificador do agente dentro da plataforma — visível para a equipe, não para o cliente
RoleFunção e persona do agente — o “cargo” que ele ocupa na operação
PromptInstruções de sistema com editor de IA, histórico de versões e análise de qualidade em tempo real
TemperaturaGrau de criatividade vs consistência das respostas (0,00 a 1,00)
EffortProfundidade de raciocínio controlada por número máximo de passos (10 a 100)
CapacidadesFuncionalidades opcionais: planejamento, raciocínio, data e hora automática
Prompts condicionaisBlocos de instrução ativados por variáveis da conversa ou do contato
Chat internoInterface de teste direto com o agente sem passar por canal externo