
Python-Bibliotheken für die Entwicklung von Model Context Protocol (MCP) Servern
Schnelles Beispiel, wie Sie Ihren eigenen MCP-Server mit Python entwickeln.
MCP standardisiert den sicheren LLM-Zugriff auf externe Daten, Werkzeuge und Plugins und ermöglicht flexible, leistungsstarke KI-Integration und Interoperabilität.
Das Model Context Protocol (MCP) ist eine offene Standard-Schnittstelle, die es großen Sprachmodellen (LLMs) ermöglicht, sicher und konsistent auf externe Datenquellen, Werkzeuge und Funktionen zuzugreifen. Es etabliert eine standardisierte Kommunikationsschicht zwischen KI-Anwendungen und verschiedenen Kontextanbietern und dient als „USB-C“ für KI-Systeme.
MCP folgt einer Client-Server-Architektur:
MCP definiert drei grundlegende Bausteine, die das Fundament des Protokolls bilden:
Ressourcen repräsentieren Daten und Inhalte, die MCP-Server LLMs zur Verfügung stellen.
Beispielanwendung: Ein MCP-Server stellt eine Logdatei als Ressource mit der URI file:///logs/app.log
bereit
Prompts sind vordefinierte Vorlagen oder Workflows, die Server anbieten, um die Interaktion mit LLMs zu steuern.
Beispielanwendung: Ein Prompt zur Generierung einer Git-Commit-Nachricht, der Codeänderungen als Eingabe akzeptiert
Werkzeuge bieten ausführbare Funktionen, die von LLMs (meist mit Nutzerfreigabe) aufgerufen werden können, um Aktionen auszuführen.
Beispielanwendung: Ein Rechner-Tool, das mathematische Operationen mit vom Modell bereitgestellten Eingaben durchführt
// Server, der eine einzelne Logdatei als Ressource bereitstellt
const server = new Server({ /* config */ }, { capabilities: { resources: {} } });
// Listet verfügbare Ressourcen auf
server.setRequestHandler(ListResourcesRequestSchema, async () => {
return {
resources: [
{
uri: "file:///logs/app.log",
name: "Anwendungsprotokolle",
mimeType: "text/plain"
}
]
};
});
// Stellt den Inhalt der Ressource bereit
server.setRequestHandler(ReadResourceRequestSchema, async (request) => {
if (request.params.uri === "file:///logs/app.log") {
const logContents = await readLogFile();
return {
contents: [{
uri: request.params.uri,
mimeType: "text/plain",
text: logContents
}]
};
}
throw new Error("Ressource nicht gefunden");
});
const server = new Server({ /* config */ }, { capabilities: { tools: {} } });
// Listet verfügbare Werkzeuge auf
server.setRequestHandler(ListToolsRequestSchema, async () => {
return {
tools: [{
name: "calculate_sum",
description: "Addiere zwei Zahlen",
inputSchema: {
type: "object",
properties: {
a: { type: "number", description: "Erste Zahl" },
b: { type: "number", description: "Zweite Zahl" }
},
required: ["a", "b"]
},
annotations: {
title: "Summe berechnen",
readOnlyHint: true,
openWorldHint: false
}
}]
};
});
// Bearbeitet die Ausführung des Werkzeugs
server.setRequestHandler(CallToolRequestSchema, async (request) => {
if (request.params.name === "calculate_sum") {
try {
const { a, b } = request.params.arguments;
if (typeof a !== 'number' || typeof b !== 'number') {
throw new Error("Ungültige Eingabe: 'a' und 'b' müssen Zahlen sein.");
}
const sum = a + b;
return {
content: [{ type: "text", text: String(sum) }]
};
} catch (error: any) {
return {
isError: true,
content: [{ type: "text", text: `Fehler beim Berechnen der Summe: ${error.message}` }]
};
}
}
throw new Error("Werkzeug nicht gefunden");
});
MCP ist eine offene Standard-Schnittstelle, die es LLMs ermöglicht, sicher und konsistent auf externe Datenquellen, Werkzeuge und Funktionen zuzugreifen und eine standardisierte Kommunikationsschicht zwischen KI-Anwendungen und Kontextanbietern schafft.
MCP besteht aus Hosts, Clients, Servern und Datenquellen. Es nutzt zentrale Grundbausteine – Ressourcen, Prompts und Werkzeuge –, um flexible und sichere Interaktionen zwischen LLMs und externen Systemen zu ermöglichen.
MCP vereinfacht die KI-Integration, erhöht die Sicherheit, reduziert die Anbieterbindung und ermöglicht Entwicklern sowie Unternehmen einen nahtlosen Zugang zu unterschiedlichen Informationen und Werkzeugen.
MCP kann über Server implementiert werden, die Ressourcen oder Werkzeuge (z. B. Logdateizugriff, Rechner-Tools) über eine standardisierte Schnittstelle bereitstellen und so die Verbindung mit KI-Modellen vereinfachen.
MCP standardisiert den Prozess, wie LLMs externe Funktionen oder Werkzeuge aufrufen – ähnlich wie Plugins die Fähigkeiten von Browsern oder Software erweitern.
Beginne mit dem Aufbau leistungsstarker KI-Systeme durch standardisierte Integrationen, sicheren Datenzugriff und flexible Tool-Anbindung mit FlowHunt.
Schnelles Beispiel, wie Sie Ihren eigenen MCP-Server mit Python entwickeln.
Erfahren Sie, wie Sie einen Model Context Protocol (MCP)-Server erstellen und bereitstellen, um KI-Modelle mit externen Tools und Datenquellen zu verbinden. Sch...
Der ModelContextProtocol (MCP) Server fungiert als Brücke zwischen KI-Agenten und externen Datenquellen, APIs und Diensten und ermöglicht FlowHunt-Nutzern den A...