
Python-bibliotek för utveckling av Model Context Protocol (MCP)-servrar
Snabbt exempel på hur du utvecklar din egen MCP-server med Python.
MCP standardiserar säker LLM-åtkomst till externa data, verktyg och plugins, vilket möjliggör flexibel och kraftfull AI-integrering och interoperabilitet.
Model Context Protocol (MCP) är ett öppet standardgränssnitt som gör det möjligt för stora språkmodeller (LLM:er) att på ett säkert och konsekvent sätt få tillgång till externa datakällor, verktyg och funktioner. Det etablerar ett standardiserat kommunikationslager mellan AI-applikationer och olika kontextleverantörer, och fungerar som “USB-C” för AI-system.
MCP följer en klient-serverarkitektur:
MCP definierar tre grundläggande primitiva byggstenar som utgör protokollets fundament:
Resurser representerar data och innehåll som MCP-servrar gör tillgängliga för LLM:er.
Exempel på användning: En MCP-server som exponerar en loggfil som resurs med URI file:///logs/app.log
Prompter är fördefinierade mallar eller arbetsflöden som servrar erbjuder för att styra interaktioner med LLM:er.
Exempel på användning: En prompt för att generera git-commitmeddelande som tar kodändringar som indata
Verktyg exponerar exekverbara funktioner som LLM:er kan anropa (vanligtvis med användarens godkännande) för att utföra åtgärder.
Exempel på användning: Ett kalkylatorverktyg som utför matematiska operationer på modellens indata
// Server som exponerar en enda loggfil som resurs
const server = new Server({ /* config */ }, { capabilities: { resources: {} } });
// Lista tillgängliga resurser
server.setRequestHandler(ListResourcesRequestSchema, async () => {
return {
resources: [
{
uri: "file:///logs/app.log",
name: "Applikationsloggar",
mimeType: "text/plain"
}
]
};
});
// Tillhandahåll resursinnehåll
server.setRequestHandler(ReadResourceRequestSchema, async (request) => {
if (request.params.uri === "file:///logs/app.log") {
const logContents = await readLogFile();
return {
contents: [{
uri: request.params.uri,
mimeType: "text/plain",
text: logContents
}]
};
}
throw new Error("Resursen hittades inte");
});
const server = new Server({ /* config */ }, { capabilities: { tools: {} } });
// Lista tillgängliga verktyg
server.setRequestHandler(ListToolsRequestSchema, async () => {
return {
tools: [{
name: "calculate_sum",
description: "Addera två tal",
inputSchema: {
type: "object",
properties: {
a: { type: "number", description: "Första talet" },
b: { type: "number", description: "Andra talet" }
},
required: ["a", "b"]
},
annotations: {
title: "Beräkna summa",
readOnlyHint: true,
openWorldHint: false
}
}]
};
});
// Hantera verktygsexekvering
server.setRequestHandler(CallToolRequestSchema, async (request) => {
if (request.params.name === "calculate_sum") {
try {
const { a, b } = request.params.arguments;
if (typeof a !== 'number' || typeof b !== 'number') {
throw new Error("Ogiltig inmatning: 'a' och 'b' måste vara tal.");
}
const sum = a + b;
return {
content: [{ type: "text", text: String(sum) }]
};
} catch (error: any) {
return {
isError: true,
content: [{ type: "text", text: `Fel vid beräkning av summa: ${error.message}` }]
};
}
}
throw new Error("Verktyget hittades inte");
});
MCP är ett öppet standardgränssnitt som gör det möjligt för LLM:er att på ett säkert och konsekvent sätt få tillgång till externa datakällor, verktyg och funktioner, och skapar ett standardiserat kommunikationslager mellan AI-applikationer och kontextleverantörer.
MCP består av värdar, klienter, servrar och datakällor. Det använder kärnprimitiver—resurser, prompts och verktyg—för att möjliggöra flexibla och säkra interaktioner mellan LLM:er och externa system.
MCP förenklar AI-integrering, ökar säkerheten, minskar inlåsning till leverantörer och möjliggör sömlös åtkomst till olika information och verktyg för både utvecklare och organisationer.
MCP kan implementeras via servrar som exponerar resurser eller verktyg (t.ex. loggfilåtkomst, kalkylatorverktyg) med hjälp av ett standardiserat gränssnitt, vilket förenklar kopplingar till AI-modeller.
MCP standardiserar processen när LLM:er anropar externa funktioner eller verktyg, på liknande sätt som plugins utökar webbläsare eller mjukvaras funktioner.
Börja bygga kraftfulla AI-system med standardiserade integrationer, säker dataåtkomst och flexibel verktygsanslutning med FlowHunt.
Snabbt exempel på hur du utvecklar din egen MCP-server med Python.
Agentisk AI omdefinierar arbetsflödesautomation med Model Context Protocol (MCP), vilket möjliggör skalbar, dynamisk integration av AI-agenter med olika resurse...
Model Context Protocol (MCP) Server kopplar samman AI-assistenter med externa datakällor, API:er och tjänster, vilket möjliggör smidig integrering av komplexa a...