
Python-Bibliotheken für die Entwicklung von Model Context Protocol (MCP) Servern
Schnelles Beispiel, wie Sie Ihren eigenen MCP-Server mit Python entwickeln.
Das Model Context Protocol (MCP) ist eine offene Standard-Schnittstelle, die es großen Sprachmodellen (LLMs) ermöglicht, sicher und konsistent auf externe Datenquellen, Werkzeuge und Funktionen zuzugreifen, und fungiert dabei als „USB-C“ für KI-Systeme.
Das Model Context Protocol (MCP) ist eine offene Standard-Schnittstelle, die es großen Sprachmodellen (LLMs) ermöglicht, sicher und konsistent auf externe Datenquellen, Werkzeuge und Funktionen zuzugreifen. Es etabliert eine standardisierte Kommunikationsschicht zwischen KI-Anwendungen und verschiedenen Kontextanbietern und dient als „USB-C“ für KI-Systeme.
MCP folgt einer Client-Server-Architektur:
MCP definiert drei grundlegende Bausteine, die das Fundament des Protokolls bilden:
Ressourcen repräsentieren Daten und Inhalte, die MCP-Server LLMs zur Verfügung stellen.
Beispielanwendung: Ein MCP-Server stellt eine Logdatei als Ressource mit der URI file:///logs/app.log bereit
Prompts sind vordefinierte Vorlagen oder Workflows, die Server anbieten, um die Interaktion mit LLMs zu steuern.
Beispielanwendung: Ein Prompt zur Generierung einer Git-Commit-Nachricht, der Codeänderungen als Eingabe akzeptiert
Werkzeuge bieten ausführbare Funktionen, die von LLMs (meist mit Nutzerfreigabe) aufgerufen werden können, um Aktionen auszuführen.
Beispielanwendung: Ein Rechner-Tool, das mathematische Operationen mit vom Modell bereitgestellten Eingaben durchführt
// Server, der eine einzelne Logdatei als Ressource bereitstellt
const server = new Server({ /* config */ }, { capabilities: { resources: {} } });
// Listet verfügbare Ressourcen auf
server.setRequestHandler(ListResourcesRequestSchema, async () => {
return {
resources: [
{
uri: "file:///logs/app.log",
name: "Anwendungsprotokolle",
mimeType: "text/plain"
}
]
};
});
// Stellt den Inhalt der Ressource bereit
server.setRequestHandler(ReadResourceRequestSchema, async (request) => {
if (request.params.uri === "file:///logs/app.log") {
const logContents = await readLogFile();
return {
contents: [{
uri: request.params.uri,
mimeType: "text/plain",
text: logContents
}]
};
}
throw new Error("Ressource nicht gefunden");
});
const server = new Server({ /* config */ }, { capabilities: { tools: {} } });
// Listet verfügbare Werkzeuge auf
server.setRequestHandler(ListToolsRequestSchema, async () => {
return {
tools: [{
name: "calculate_sum",
description: "Addiere zwei Zahlen",
inputSchema: {
type: "object",
properties: {
a: { type: "number", description: "Erste Zahl" },
b: { type: "number", description: "Zweite Zahl" }
},
required: ["a", "b"]
},
annotations: {
title: "Summe berechnen",
readOnlyHint: true,
openWorldHint: false
}
}]
};
});
// Bearbeitet die Ausführung des Werkzeugs
server.setRequestHandler(CallToolRequestSchema, async (request) => {
if (request.params.name === "calculate_sum") {
try {
const { a, b } = request.params.arguments;
if (typeof a !== 'number' || typeof b !== 'number') {
throw new Error("Ungültige Eingabe: 'a' und 'b' müssen Zahlen sein.");
}
const sum = a + b;
return {
content: [{ type: "text", text: String(sum) }]
};
} catch (error: any) {
return {
isError: true,
content: [{ type: "text", text: `Fehler beim Berechnen der Summe: ${error.message}` }]
};
}
}
throw new Error("Werkzeug nicht gefunden");
});
Beginne mit dem Aufbau leistungsstarker KI-Systeme durch standardisierte Integrationen, sicheren Datenzugriff und flexible Tool-Anbindung mit FlowHunt.

Schnelles Beispiel, wie Sie Ihren eigenen MCP-Server mit Python entwickeln.

Erfahren Sie, wie Sie einen Model Context Protocol (MCP)-Server erstellen und bereitstellen, um KI-Modelle mit externen Tools und Datenquellen zu verbinden. Sch...

Der ModelContextProtocol (MCP) Server fungiert als Brücke zwischen KI-Agenten und externen Datenquellen, APIs und Diensten und ermöglicht FlowHunt-Nutzern den A...
Cookie-Zustimmung
Wir verwenden Cookies, um Ihr Surferlebnis zu verbessern und unseren Datenverkehr zu analysieren. See our privacy policy.