
LLM Context MCP Server
Der LLM Context MCP Server verbindet KI-Assistenten mit externen Code- und Textprojekten und ermöglicht kontextbewusste Workflows für Code-Reviews, Dokumentatio...
DocsMCP bietet LLMs und Entwicklern sofortigen Zugriff auf technische Dokumentationen aus lokalen und entfernten Quellen und vereinfacht damit Code-Hilfe und den Abruf von API-Referenzen innerhalb von FlowHunt oder jeder MCP-fähigen Umgebung.
DocsMCP ist ein Model Context Protocol (MCP) Server, der speziell dafür entwickelt wurde, Large Language Models (LLMs) Zugriff auf Dokumentationen zu ermöglichen. Durch die Anbindung sowohl lokaler als auch entfernter Dokumentationsquellen können LLMs mit DocsMCP Dokumentationen in Echtzeit abrufen, parsen und durchsuchen. Dies verbessert KI-Assistenten und Entwickler-Workflows, da technische Referenzen, Anleitungen und API-Dokumentationen nahtlos und aufgabenbezogen bereitgestellt werden. DocsMCP fungiert dabei als Vermittler, indem es Anfragen von LLMs in gezielte Suchen oder Abrufe auf Dokumentationsressourcen übersetzt – so werden etwa Funktionsverwendungen recherchiert, Bibliotheksdokumentationen durchsucht oder kontextbezogene Hilfen direkt in Entwicklungsumgebungen integriert.
Im Repository sind keine Prompt-Vorlagen aufgeführt.
Im Repository sind keine expliziten MCP-Ressourcen dokumentiert.
url
– Die URL oder der Dateipfad, von dem die Dokumentation abgerufen werden soll.Für Windsurf sind keine Einrichtungsanweisungen vorhanden.
Für Claude sind keine Einrichtungsanweisungen vorhanden.
npx
installiert sind..cursor/mcp.json
.Beispiel .cursor/mcp.json
:
{
"mcpServers": {
"docs-mcp": {
"command": "npx",
"args": [
"-y",
"docsmcp",
"'--source=Model Context Protocol (MCP)|https://modelcontextprotocol.io/llms-full.txt'"
]
}
}
}
Absicherung von API-Keys: Im Repository sind keine API-Keys oder Umgebungsvariablen-Konfigurationen aufgeführt.
Für Cline sind keine Einrichtungsanweisungen vorhanden.
Verwendung von MCP in FlowHunt
Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden Sie sie mit Ihrem KI-Agenten:
Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Fügen Sie im Bereich System-MCP-Konfiguration die Details Ihres MCP-Servers in folgendem JSON-Format ein:
{
"docs-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle Funktionen und Möglichkeiten nutzen. Denken Sie daran, “docs-mcp” ggf. durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen und die URL entsprechend anzupassen.
Abschnitt | Verfügbarkeit | Details/Hinweise |
---|---|---|
Übersicht | ✅ | DocsMCP ist ein Dokumentationsserver für LLMs via MCP. |
Liste der Prompts | ⛔ | Keine Prompt-Vorlagen gefunden. |
Liste der Ressourcen | ⛔ | Im Repository kein Ressourcen-Abschnitt. |
Liste der Tools | ✅ | getDocumentationSources, getDocumentation |
Absicherung von API-Keys | ⛔ | Keine Hinweise zu Umgebungsvariablen oder API-Keys vorhanden. |
Sampling Support (weniger wichtig für Bewertung) | ⛔ | Nicht erwähnt. |
DocsMCP ist ein fokussierter und unkomplizierter MCP-Server zur Bereitstellung von Dokumentation für LLMs. Er bietet essentielle Tools zum Dokumentationsabruf, verzichtet jedoch auf fortgeschrittene Features wie Ressourcenausgabe, Prompt-Vorlagen oder explizite Sicherheitshinweise. Das Fehlen von Prompt- und Ressourcendefinitionen sowie fehlende Anleitungen für einige Plattformen schränkt die Flexibilität ein. DocsMCP ist unter MIT-Lizenz Open Source, hat aber bislang wenig Community-Echo. Insgesamt ein nützlicher, aber grundlegender MCP-Server.
Hat eine LICENSE | ✅ (MIT) |
---|---|
Mindestens ein Tool | ✅ |
Anzahl Forks | 0 |
Anzahl Sterne | 1 |
Bewertung: 4/10 – DocsMCP liefert grundlegende MCP-Server-Funktionalität für Dokumentationen, jedoch fehlen fortgeschrittene oder flexible MCP-Features, Prompt-Vorlagen und breitere Plattformunterstützung. Die Einfachheit ist für fokussierte Anwendungsfälle ein Vorteil, aber für Erweiterbarkeit eine Einschränkung.
DocsMCP ist ein MCP-Server, der Large Language Models Echtzeitzugriff auf lokale und entfernte Dokumentationsquellen bietet und damit Code-Hilfe, API-Abfragen und technische Nachschlagewerke direkt in Entwicklungsumgebungen ermöglicht.
DocsMCP stellt zwei Haupttools bereit: 'getDocumentationSources' (um alle konfigurierten Dokumentationsquellen anzuzeigen) und 'getDocumentation' (um Dokumentation von einer bestimmten URL oder einem lokalen Dateipfad abzurufen und zu parsen).
DocsMCP eignet sich ideal für sofortiges Nachschlagen von Dokumentationen, kontextbezogene Code-Hilfe, automatisiertes Abrufen von API-Referenzen sowie die Integration interner und externer Dokumentation in eine einheitliche MCP-Oberfläche für LLMs und Entwickler.
In FlowHunt können Sie die MCP-Komponente hinzufügen und so konfigurieren, dass sie auf Ihren DocsMCP-Server verweist. Dadurch können Ihre KI-Agenten alle DocsMCP-Tools innerhalb Ihrer automatisierten Workflows für nahtlosen Dokumentationszugriff nutzen.
Nein, DocsMCP enthält keine Prompt-Vorlagen oder expliziten Ressourcendefinitionen. Es handelt sich um einen spezialisierten MCP-Server für Dokumentationsabruf mit einem einfachen Toolset.
Ja, DocsMCP ist unter MIT-Lizenz als Open Source verfügbar, hat aktuell aber nur geringe Community-Beteiligung.
In der aktuellen DocsMCP-Dokumentation sind keine API-Keys oder spezielle Sicherheitskonfigurationen beschrieben.
Statten Sie Ihre KI-Agenten mit Echtzeitzugriff auf Dokumentationen aus. Integrieren Sie DocsMCP in Ihren FlowHunt-Workflow für sofortige, kontextbezogene Entwicklerunterstützung und nahtlose Code-Hilfe.
Der LLM Context MCP Server verbindet KI-Assistenten mit externen Code- und Textprojekten und ermöglicht kontextbewusste Workflows für Code-Reviews, Dokumentatio...
Der Microsoft Docs MCP Server bietet KI-Assistenten, IDEs und Entwicklungstools in Echtzeit autoritativen Zugriff auf Microsoft-Dokumentation. Verbessern Sie Wo...
Langflow-DOC-QA-SERVER ist ein MCP-Server für Dokumenten-Frage-Antwort-Aufgaben und ermöglicht es KI-Assistenten, Dokumente über ein Langflow-Backend abzufragen...