Skip to main content
A Knowledge Base é o repositório de conhecimento dos seus agentes. Em vez de depender exclusivamente do prompt de sistema, o agente consulta a base durante cada conversa e recupera trechos relevantes antes de formular a resposta. Essa arquitetura é chamada de RAG (Retrieval-Augmented Generation).

Conceitos Centrais

ConceitoDescrição
Base de ConhecimentoColeção independente de documentos e conteúdos que um agente pode consultar. Cada base é isolada — os documentos de uma base nunca aparecem nas buscas de outra.
ChunkFragmento de texto gerado pelo processo de divisão de documentos longos. O chunker divide o conteúdo em pedaços de ~4.000 caracteres com sobreposição de ~400 caracteres entre chunks consecutivos para preservar o contexto nas fronteiras.
EmbeddingRepresentação vetorial de um chunk gerada pelo modelo text-embedding-3-small. Cada embedding tem 1.536 dimensões e captura o significado semântico do texto.
RetrievalProcesso de busca por similaridade coseno que compara o embedding da pergunta do usuário com os embeddings armazenados e retorna os chunks mais próximos semanticamente.
RAGRetrieval-Augmented Generation — os chunks recuperados são injetados no contexto do LLM junto com a mensagem do usuário, permitindo que o agente responda com base em informação específica indexada, não em memória de treinamento genérico.

Por Que Isso Importa

  1. Respostas baseadas em dados reais: o agente responde com o conteúdo exato que você indexou — políticas, preços, catálogos — e não com inferências genéricas do modelo base.
  2. Atualização sem reprogramação: basta atualizar o conteúdo na base de conhecimento. O agente passa a usar a nova informação imediatamente nas próximas conversas, sem necessidade de modificar o prompt de sistema.
  3. Escopo controlado: a busca é sempre filtrada por knowledge_base_id e company_id, garantindo que dados de um cliente nunca apareçam para outro e que bases distintas permaneçam isoladas mesmo quando um agente acessa múltiplas bases simultaneamente.

Como Funciona

1

Ingestão de conteúdo

Você adiciona conteúdo à base — documentos, pares de Q&A, páginas de site ou vídeos do YouTube. O conteúdo é armazenado como documento na tabela knowledge_base_documents.
2

Chunking

A função knowledge-process-document divide o texto em pedaços de ~4.000 caracteres. Uma sobreposição de ~400 caracteres é mantida entre chunks consecutivos para que o contexto não se perca nas fronteiras.
3

Geração de embeddings

Cada chunk é convertido em um vetor de 1.536 dimensões pelo modelo text-embedding-3-small da OpenAI, enviado em lotes de até 100 chunks por requisição. Os vetores são armazenados na tabela knowledge_chunks.
4

Busca semântica

Quando o agente precisa de informação, a função knowledge-search converte a pergunta do usuário em um vetor e executa busca por similaridade coseno. Os chunks mais próximos semanticamente são retornados, ordenados por relevância.
5

Geração aumentada

Os chunks recuperados são injetados no contexto do LLM junto com a mensagem do usuário. O agente formula a resposta com base nessa informação específica, não em conhecimento genérico de pré-treinamento.

Tipos de Conteúdo Suportados

TipoDescrição
DocumentosPDFs, arquivos de texto e documentos enviados por upload. O processador extrai o texto, divide em chunks e gera embeddings.
Q&APares de pergunta e resposta adicionados manualmente. Indexados instantaneamente, sem pipeline assíncrono. Alta precisão porque você controla exatamente o que será recuperado.
WebsiteURLs rastreadas pelo crawler. O sistema percorre as páginas, extrai o conteúdo textual e indexa como documentos. Útil para manter a base sincronizada com documentação pública.
YouTubeURLs de vídeos. O sistema baixa a transcrição automática, divide em chunks e indexa. Útil para bases de tutoriais em vídeo.

Ciclo de Vida do Conhecimento

1

Criação da base

Uma base de conhecimento é criada no módulo de Knowledge, recebe um nome e fica associada ao workspace. Começa vazia, sem documentos.
2

Adição de conteúdo

Documentos, Q&As, URLs e vídeos são adicionados à base. Cada fonte passa pelo pipeline de processamento correspondente ao seu tipo.
3

Processamento e indexação

O conteúdo é processado de forma assíncrona: chunking, vetorização e armazenamento. O status muda de Processando para Indexado quando concluído.
4

Conexão ao agente

A base é conectada a um ou mais agentes na aba de Treinamento. Os parâmetros de retrieval — top-k e threshold de similaridade — são configurados por base.
5

Uso em produção

O agente consulta a base automaticamente em cada conversa. Quando a pergunta do usuário tem correspondência semântica acima do threshold, os chunks relevantes são incluídos no contexto da resposta.

Exemplo

Uma empresa de software conecta três bases ao mesmo agente de suporte:
  • Base “FAQ Produto” com respostas para as perguntas mais frequentes sobre funcionalidades
  • Base “Documentação Técnica” com manuais e guias de integração
  • Base “Políticas Comerciais” com regras de cancelamento, reembolso e contratos
Quando um usuário pergunta “como cancelo minha assinatura?”, o agente busca nas três bases simultaneamente, recupera os chunks mais relevantes da base “Políticas Comerciais” e formula uma resposta precisa com base nas regras reais da empresa.