
Python-bibliotheken voor Model Context Protocol (MCP) Serverontwikkeling
Snel voorbeeld van hoe je je eigen MCP-server ontwikkelt met Python.
Het Model Context Protocol (MCP) is een open standaardinterface waarmee grote taalmodellen (LLM’s) veilig en consistent toegang krijgen tot externe databronnen, tools en mogelijkheden, en daarmee fungeert als een ‘USB-C’ voor AI-systemen.
Het Model Context Protocol (MCP) is een open standaardinterface waarmee grote taalmodellen (LLM’s) veilig en consistent toegang krijgen tot externe databronnen, tools en mogelijkheden. Het creëert een gestandaardiseerde communicatielaag tussen AI-toepassingen en verschillende contextproviders, en fungeert daarmee als de “USB-C” voor AI-systemen.
MCP volgt een client-serverarchitectuur:
MCP definieert drie fundamentele primitieven die de bouwstenen van het protocol vormen:
Resources vertegenwoordigen data en inhoud die MCP-servers beschikbaar stellen aan LLM’s.
Voorbeeldtoepassing: Een MCP-server die een logbestand aanbiedt als resource met URI file:///logs/app.log
Prompts zijn vooraf gedefinieerde sjablonen of workflows die servers aanbieden om LLM-interacties te begeleiden.
Voorbeeldtoepassing: Een prompt voor het genereren van git commit-berichten die codewijzigingen als invoer accepteert
Tools stellen uitvoerbare functies beschikbaar die LLM’s kunnen aanroepen (meestal met goedkeuring van de gebruiker) om acties uit te voeren.
Voorbeeldtoepassing: Een rekenmachine-tool die wiskundige bewerkingen uitvoert op invoer van het model
// Server die een enkel logbestand als resource aanbiedt
const server = new Server({ /* config */ }, { capabilities: { resources: {} } });
// Lijst beschikbare resources op
server.setRequestHandler(ListResourcesRequestSchema, async () => {
return {
resources: [
{
uri: "file:///logs/app.log",
name: "Applicatielogs",
mimeType: "text/plain"
}
]
};
});
// Stel resource-inhoud beschikbaar
server.setRequestHandler(ReadResourceRequestSchema, async (request) => {
if (request.params.uri === "file:///logs/app.log") {
const logContents = await readLogFile();
return {
contents: [{
uri: request.params.uri,
mimeType: "text/plain",
text: logContents
}]
};
}
throw new Error("Resource niet gevonden");
});
const server = new Server({ /* config */ }, { capabilities: { tools: {} } });
// Lijst beschikbare tools op
server.setRequestHandler(ListToolsRequestSchema, async () => {
return {
tools: [{
name: "calculate_sum",
description: "Tel twee getallen bij elkaar op",
inputSchema: {
type: "object",
properties: {
a: { type: "number", description: "Eerste getal" },
b: { type: "number", description: "Tweede getal" }
},
required: ["a", "b"]
},
annotations: {
title: "Som berekenen",
readOnlyHint: true,
openWorldHint: false
}
}]
};
});
// Verwerk toolexecutie
server.setRequestHandler(CallToolRequestSchema, async (request) => {
if (request.params.name === "calculate_sum") {
try {
const { a, b } = request.params.arguments;
if (typeof a !== 'number' || typeof b !== 'number') {
throw new Error("Ongeldige invoer: 'a' en 'b' moeten getallen zijn.");
}
const sum = a + b;
return {
content: [{ type: "text", text: String(sum) }]
};
} catch (error: any) {
return {
isError: true,
content: [{ type: "text", text: `Fout bij som berekenen: ${error.message}` }]
};
}
}
throw new Error("Tool niet gevonden");
});
Begin met het bouwen van krachtige AI-systemen met gestandaardiseerde integraties, veilige data-toegang en flexibele toolconnectiviteit via FlowHunt.

Snel voorbeeld van hoe je je eigen MCP-server ontwikkelt met Python.

Leer hoe je een Model Context Protocol (MCP) server bouwt en implementeert om AI-modellen te verbinden met externe tools en databronnen. Stapsgewijze handleidin...

Ontdek hoe het Model Context Protocol (MCP) veilige bestandsbewerkingen mogelijk maakt voor AI-assistenten en ontwikkeltools. Deze uitgebreide gids legt het san...
Cookie Toestemming
We gebruiken cookies om uw browse-ervaring te verbeteren en ons verkeer te analyseren. See our privacy policy.