Scrapling Fetch MCP-Server
Mit dem Scrapling Fetch MCP-Server können Ihre KI-Agenten geschützte Webinhalte abrufen und extrahieren, um kontextreiche Assistenz und automatisierte Dokumentations-Workflows selbst auf bot-geschützten Seiten zu ermöglichen.

Was macht der “Scrapling Fetch” MCP-Server?
Der Scrapling Fetch MCP-Server ist ein spezialisierter Model Context Protocol (MCP)-Server, der KI-Assistenten dabei unterstützt, Textinhalte von Websites abzurufen, die Bot-Schutz und Anti-Automatisierungsmaßnahmen einsetzen. Mithilfe des zugrunde liegenden Scrapling-Tools schließt er die Lücke zwischen dem, was Nutzer im Browser sehen, und dem, was KI-Agenten abrufen können. So ist es möglich, HTML oder Markdown von Seiten zu holen, die automatisierte Scraper sonst blockieren würden. Scrapling Fetch MCP ist auf den Abruf kleiner Mengen von Dokumentationen und Referenzmaterialien optimiert, wobei der Fokus speziell auf Text und HTML und nicht auf allgemeines Site-Scraping liegt. Dadurch ist er ein wertvolles Werkzeug für Entwicklungs-Workflows, die Zugriff auf geschützte Online-Dokumentationen oder Kontextanreicherung erfordern – und das unter Einhaltung der Seitengrenzen und der vorgesehenen Nutzung.
Liste der Prompts
Im Repository sind keine expliziten Prompt-Vorlagen dokumentiert.
Liste der Ressourcen
Im Repository sind keine expliziten MCP-Ressourcen dokumentiert.
Liste der Tools
- s-fetch-page: Ruft komplette Webseiten ab und unterstützt Paginierung, um große Dokumente schrittweise abzurufen.
- s-fetch-pattern: Extrahiert gezielte Inhalte von Webseiten durch Abgleich benutzerdefinierter Regex-Muster mit konfigurierbarem Kontext.
Anwendungsfälle dieses MCP-Servers
- Zugriff auf bot-geschützte Dokumentationen: Entwickler können Dokumentationen oder Referenzmaterialien von Seiten abrufen, die automatisierte Tools sonst blockieren, sodass KI-Assistenten Fragen auf Basis aktueller, geschützter Quellen beantworten können.
- Gezielte Informations-Extraktion: Mit regulären Ausdrücken lassen sich relevante Daten (wie API-Keys, Konfigurationsschnipsel oder Referenzen) aus umfangreichen Dokumentationsseiten extrahieren und der Fokus auf den relevanten Kontext legen.
- Webseiten-Inhalte zusammenfassen: Ganze Webseiten können abgerufen und zusammengefasst werden, um Nutzern den Zugang zu großen oder komplexen Dokumentationen zu erleichtern.
- Kontextbezogene Assistenz in IDEs: Der Server kann in Entwicklungsumgebungen integriert werden, sodass KI-Tools auf geschützte Online-Ressourcen zugreifen und kontextbezogene Assistenz bieten.
- Schrittweiser Seitenabruf: Große Dokumente können durch Paginierung verarbeitet werden, sodass auch umfangreiche Referenzen ohne Ressourcenüberlastung genutzt werden können.
Einrichtung
Windsurf
Für Windsurf sind im Repository keine spezifischen Anweisungen dokumentiert.
Claude
- Voraussetzungen sicherstellen: Python 3.10+ und der uv-Paketmanager sind installiert.
- Abhängigkeiten installieren:
uv tool install scrapling scrapling install uv tool install scrapling-fetch-mcp
- Konfigurationsdatei Ihres Claude-Clients finden.
- Scrapling Fetch MCP-Server hinzufügen:
{ "mcpServers": { "Cyber-Chitta": { "command": "uvx", "args": ["scrapling-fetch-mcp"] } } }
- Speichern und Claude-Client neu starten, um die Konfiguration zu übernehmen.
API-Keys absichern
Es gibt keine explizite Dokumentation zur Nutzung von API-Keys oder zur Konfiguration von Umgebungsvariablen.
Cursor
Für Cursor sind im Repository keine spezifischen Anweisungen dokumentiert.
Cline
Für Cline sind im Repository keine spezifischen Anweisungen dokumentiert.
Verwendung dieses MCP in Flows
MCP in FlowHunt verwenden
Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden Sie sie mit Ihrem KI-Agenten:

Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Tragen Sie im Bereich System-MCP-Konfiguration Ihre MCP-Serverdetails in folgendem JSON-Format ein:
{
"scrapling-fetch": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Sobald konfiguriert, kann der KI-Agent dieses MCP als Tool mit Zugriff auf alle Funktionen nutzen. Denken Sie daran, “scrapling-fetch” durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen und die URL auf Ihren eigenen MCP-Server anzupassen.
Übersicht
Abschnitt | Verfügbarkeit | Details/Anmerkungen |
---|---|---|
Übersicht | ✅ | Klare Übersicht in der README |
Liste der Prompts | ⛔ | Keine Prompt-Vorlagen dokumentiert |
Liste der Ressourcen | ⛔ | Keine MCP-Ressourcendefinitionen dokumentiert |
Liste der Tools | ✅ | s-fetch-page, s-fetch-pattern |
Absicherung von API-Keys | ⛔ | Keine Angaben zur API-Key- oder Env-Var-Einrichtung |
Sampling-Support (weniger wichtig für Bewertung) | ⛔ | Nicht erwähnt |
| Roots-Support | ⛔ | Nicht erwähnt |
Im Vergleich der beiden Tabellen überzeugt der Scrapling Fetch MCP-Server durch klare und nützliche Tools für den geschützten Webzugriff, es fehlen jedoch standardisierte Prompts, Ressourcendeklarationen und fortgeschrittene Dokumentation zu Sicherheit/Umgebungsvariablen. Basierend auf Funktionen und Dokumentation bewerten wir dieses MCP mit 6/10 hinsichtlich Vollständigkeit und Nutzen.
MCP-Score
Hat eine LICENSE | ✅ (Apache-2.0) |
---|---|
Mindestens ein Tool | ✅ |
Anzahl Forks | 5 |
Anzahl Sterne | 31 |
Häufig gestellte Fragen
- Was macht der Scrapling Fetch MCP-Server?
Er ermöglicht KI-Agenten und Chatbots den Zugriff auf und das Extrahieren von Text- oder HTML-Inhalten von Websites mit Bot-Schutz, sodass Dokumentationen oder Referenzmaterialien abgerufen werden können, die für automatisierte Tools sonst unzugänglich wären.
- Welche Tools stehen mit Scrapling Fetch MCP zur Verfügung?
Zwei Haupttools: s-fetch-page (ruft vollständige Webseiten ab, unterstützt Paginierung für große Dokumente) und s-fetch-pattern (extrahiert Inhalte auf Basis benutzerdefinierter Regex-Muster mit konfigurierbarem Kontext).
- Was sind typische Anwendungsfälle?
Anwendungsfälle sind u. a. der Zugriff auf bot-geschützte Dokumentationen, das Extrahieren spezifischer Informationen per Regex, das Zusammenfassen von Webinhalten, kontextbezogene IDE-Assistenz und der schrittweise Abruf großer Dokumente.
- Wie konfiguriere ich Scrapling Fetch MCP in FlowHunt?
Fügen Sie die MCP-Komponente Ihrem Flow hinzu, öffnen Sie das Konfigurationspanel und tragen Sie Ihre Serverdetails im JSON-Format unter System-MCP-Konfiguration ein. Achten Sie darauf, den richtigen Servernamen und die URL für Ihre Bereitstellung zu verwenden.
- Werden API-Keys oder zusätzliche Sicherheitsschritte benötigt?
Die aktuelle Dokumentation gibt keine Hinweise auf die Notwendigkeit von API-Keys oder die Konfiguration von Umgebungsvariablen für Scrapling Fetch MCP.
- Welche Lizenz verwendet Scrapling Fetch MCP?
Er wird unter der Apache-2.0-Lizenz veröffentlicht und ist daher Open Source sowie für die Integration in persönliche und kommerzielle Projekte geeignet.
Testen Sie den Scrapling Fetch MCP-Server mit FlowHunt
Integrieren Sie den Scrapling Fetch MCP-Server, um Ihren KI-Workflows Zugriff auf geschützte Website-Inhalte und erweiterte Webautomatisierungsfunktionen zu ermöglichen.