Por que o MCP importa
Antes do MCP, integrar ferramentas a um agente de IA era um trabalho manual e fragmentado: cada plataforma tinha seu próprio formato de tool calling, e o mesmo servidor de ferramentas precisava ser reescrito para funcionar com diferentes sistemas. O MCP elimina essa fragmentação com um protocolo único.- Um servidor MCP desenvolvido uma vez funciona com qualquer cliente compatível — o agente da Timely.ai, Claude Desktop, editores de código com suporte a IA e outros.
- O agente descobre automaticamente as ferramentas disponíveis no servidor via protocolo — sem documentação manual, sem mapeamento estático.
- Servidores MCP públicos desenvolvidos pela comunidade podem ser conectados diretamente ao seu agente sem modificação.
- Ferramentas proprietárias (APIs internas, ERPs, sistemas legados) ficam acessíveis ao agente sem expor uma API REST pública.
MCPs em ação
Na prática, o MCP funciona como uma interface universal entre o agente e qualquer sistema externo que você queira conectar:- Um servidor MCP com queries específicas ao seu banco de dados interno — o agente consulta registros sem precisar de uma integração REST dedicada.
- Um servidor MCP que agrega múltiplas APIs internas e expõe uma interface simplificada ao agente — o agente chama uma ferramenta e o servidor orquestra as chamadas necessárias.
- Um servidor MCP público de busca na web, gerenciamento de arquivos ou controle de browser — conectado ao agente sem nenhuma adaptação.
O agente da Timely.ai atua como cliente MCP: mantém uma sessão com cada servidor configurado, descobre as ferramentas disponíveis e as registra no contexto do modelo. Quando o LLM decide acionar uma ferramenta do servidor, o cliente executa a chamada via SSE ou HTTP, recebe o resultado e o injeta no contexto antes da próxima iteração.
Características principais
O MCP foi projetado especificamente para o uso por agentes de IA — e isso se reflete em suas características fundamentais:- Descoberta automática de ferramentas — o agente lê o schema das ferramentas diretamente do servidor, sem intervenção manual.
- Comunicação via SSE ou HTTP — compatível com qualquer linguagem e infraestrutura de servidor.
- Suporte a sessão com estado — o protocolo permite que o servidor mantenha contexto entre chamadas na mesma sessão.
- Descrições legíveis pelo modelo — cada ferramenta expõe nome, descrição e schema de parâmetros que o LLM usa para decidir quando e como acioná-la.