
Bibliotecas Python para Desenvolvimento de Servidor Model Context Protocol (MCP)
Exemplo rápido de como desenvolver seu próprio Servidor MCP com Python.
O Protocolo de Contexto de Modelo (MCP) é uma interface aberta e padronizada que permite que Modelos de Linguagem de Grande Porte (LLMs) acessem de forma segura e consistente fontes de dados externas, ferramentas e capacidades, atuando como um ‘USB-C’ para sistemas de IA.
O Protocolo de Contexto de Modelo (MCP) é uma interface aberta e padronizada que permite que Modelos de Linguagem de Grande Porte (LLMs) acessem de forma segura e consistente fontes de dados externas, ferramentas e capacidades. Ele estabelece uma camada de comunicação padronizada entre aplicações de IA e diferentes provedores de contexto, servindo como o “USB-C” para sistemas de IA.
O MCP segue uma arquitetura cliente-servidor:
O MCP define três primitivas fundamentais que formam os blocos de construção do protocolo:
Recursos representam dados e conteúdos que servidores MCP disponibilizam para LLMs.
Exemplo de uso: Um servidor MCP expondo um arquivo de log como recurso com URI file:///logs/app.log
Prompts são templates ou fluxos de trabalho predefinidos que servidores oferecem para orientar as interações dos LLMs.
Exemplo de uso: Um prompt gerador de mensagem de commit git que aceita alterações de código como entrada
Ferramentas expõem funções executáveis que LLMs podem invocar (geralmente com aprovação do usuário) para realizar ações.
Exemplo de uso: Uma ferramenta de calculadora que realiza operações matemáticas em entradas fornecidas pelo modelo
// Servidor expondo um único arquivo de log como recurso
const server = new Server({ /* config */ }, { capabilities: { resources: {} } });
// Listar recursos disponíveis
server.setRequestHandler(ListResourcesRequestSchema, async () => {
return {
resources: [
{
uri: "file:///logs/app.log",
name: "Logs da Aplicação",
mimeType: "text/plain"
}
]
};
});
// Fornecer conteúdo do recurso
server.setRequestHandler(ReadResourceRequestSchema, async (request) => {
if (request.params.uri === "file:///logs/app.log") {
const logContents = await readLogFile();
return {
contents: [{
uri: request.params.uri,
mimeType: "text/plain",
text: logContents
}]
};
}
throw new Error("Recurso não encontrado");
});
const server = new Server({ /* config */ }, { capabilities: { tools: {} } });
// Listar ferramentas disponíveis
server.setRequestHandler(ListToolsRequestSchema, async () => {
return {
tools: [{
name: "calculate_sum",
description: "Soma dois números",
inputSchema: {
type: "object",
properties: {
a: { type: "number", description: "Primeiro número" },
b: { type: "number", description: "Segundo número" }
},
required: ["a", "b"]
},
annotations: {
title: "Calcular Soma",
readOnlyHint: true,
openWorldHint: false
}
}]
};
});
// Lidar com execução da ferramenta
server.setRequestHandler(CallToolRequestSchema, async (request) => {
if (request.params.name === "calculate_sum") {
try {
const { a, b } = request.params.arguments;
if (typeof a !== 'number' || typeof b !== 'number') {
throw new Error("Entrada inválida: 'a' e 'b' devem ser números.");
}
const sum = a + b;
return {
content: [{ type: "text", text: String(sum) }]
};
} catch (error: any) {
return {
isError: true,
content: [{ type: "text", text: `Erro ao calcular a soma: ${error.message}` }]
};
}
}
throw new Error("Ferramenta não encontrada");
});
Comece a construir sistemas de IA poderosos com integrações padronizadas, acesso seguro a dados e conectividade flexível de ferramentas usando o FlowHunt.

Exemplo rápido de como desenvolver seu próprio Servidor MCP com Python.

A IA agente está redefinindo a automação de fluxos de trabalho com o Model Context Protocol (MCP), permitindo a integração escalável e dinâmica de agentes de IA...

O Servidor ModelContextProtocol (MCP) atua como uma ponte entre agentes de IA e fontes de dados externas, APIs e serviços, permitindo que usuários FlowHunt crie...
Consentimento de Cookies
Usamos cookies para melhorar sua experiência de navegação e analisar nosso tráfego. See our privacy policy.