
Scrapling Fetch MCP Server
Scrapling Fetch MCP Server möjliggör för AI-assistenter och chattbotar att komma åt text- och HTML-innehåll från webbplatser med botskydd, vilket gör det möjlig...
ScrAPI MCP-server låter dina AI-agenter skrapa och använda live webdata, och kringgår vanliga hinder för web scraping för kraftfull automation och kontextförbättring.
ScrAPI MCP-servern låter AI-assistenter skrapa webbsidor genom att ansluta till ScrAPI-tjänsten. Den fungerar som en brygga mellan AI-klienter och externt webbinnehåll, vilket möjliggör automatiserad extrahering av HTML eller Markdown från nästan vilken webbplats som helst – även de som skyddas av botdetektering, captchas eller geolokaliseringsbegränsningar. Detta verktyg är användbart för att integrera realtidsdata från webben i AI-arbetsflöden, vilket gör det idealiskt för utvecklare som behöver aktuell eller svåråtkomlig webbinformation. Genom att exponera enkla API-endpoints förenklar ScrAPI MCP-servern uppgifter som innehållsinsamling, dataextraktion och kontextförbättring för språkmodeller och förbättrar deras förmåga att interagera med och använda live webdata i olika utvecklings- och automationsscenarion.
Inga promptmallar nämns i arkivet.
Inga explicita resurser listas i arkivet.
Inga specifika instruktioner för Windsurf finns i arkivet.
claude_desktop_config.json
-fil.Exempel på JSON:
{
"mcpServers": {
"scrapi": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"-e",
"SCRAPI_API_KEY",
"deventerprisesoftware/scrapi-mcp"
],
"env": {
"SCRAPI_API_KEY": "<YOUR_API_KEY>"
}
}
}
}
Skydda API-nycklar:
Placera din API-nyckel i env
-sektionen som visas ovan, istället för att hårdkoda den.
Inga specifika instruktioner för Cursor finns i arkivet.
Inga specifika instruktioner för Cline finns i arkivet.
Använda MCP i FlowHunt
För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:
Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion, lägg in dina MCP-serverdetaljer med detta JSON-format:
{
"scrapi": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
När du har konfigurerat, kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och kapaciteter. Kom ihåg att ändra “scrapi” till det faktiska namnet på din MCP-server och byt ut URL:en mot din egen MCP-serveradress.
Sektion | Tillgänglighet | Detaljer/Kommentarer |
---|---|---|
Översikt | ✅ | |
Lista över prompts | ⛔ | Inga promptmallar hittades i arkivet |
Lista över resurser | ⛔ | Inga resurser listade |
Lista över verktyg | ✅ | scrape_url_html, scrape_url_markdown |
Skydda API-nycklar | ✅ | via env i JSON-konfiguration |
Stöder sampling (mindre viktigt vid utvärdering) | ⛔ | Ej nämnt |
Baserat på de två tabellerna ovan är ScrAPI MCP-servern enkel, fokuserad och produktionsklar för sin kärnfunktion (webbskrapning), men saknar avancerade MCP-funktioner (såsom resurser, sampling eller roots) och bredare plattformsdokumentation. Dess värde är högt för webbskrapningsändamål, men begränsat om du behöver avancerade MCP-primitiver eller många promptarbetsflöden.
Har en LICENS | ✅ (MIT) |
---|---|
Har minst ett verktyg | ✅ |
Antal forkar | 1 |
Antal stjärnor | 4 |
Helhetsbetyg: 6/10
ScrAPI MCP-servern täcker grunderna vad gäller verktygsexponering och säker konfiguration, men saknar djup vad gäller prompt-/resursstöd och dokumentation för plattformsövergripande installation. Utmärkt för sitt specifika ändamål, men inte en “full-stack” MCP-lösning.
ScrAPI MCP-server fungerar som en brygga mellan AI-klienter och ScrAPI web scraping-tjänsten, vilket möjliggör automatiserad extrahering av HTML eller Markdown från praktiskt taget vilken webbplats som helst – även de som skyddas av botdetektering eller captchas.
Den exponerar två huvudsakliga verktyg: `scrape_url_html` för att hämta webbsidor som HTML, och `scrape_url_markdown` för att hämta innehåll som Markdown.
ScrAPI MCP-server är idealisk för automatiserad innehållsextraktion, LLM-dataförädling, konkurrensanalys, innehållsövervakning och forskningsautomation – särskilt där traditionella skrapverktyg misslyckas på grund av säkerhetsbarriärer.
Förvara alltid din API-nyckel i `env`-sektionen i din MCP-serverkonfiguration, inte direkt i koden. Detta skyddar din nyckel från oavsiktlig exponering.
Den är fokuserad och pålitlig för webbskrapningsändamål, med säker installation och verktygsexponering. Dock saknas avancerade MCP-funktioner som prompt- eller resurssupport.
Ja! Lägg bara till MCP-komponenten i ditt FlowHunt-arbetsflöde, konfigurera den med dina ScrAPI-serverdetaljer, så kan dina AI-agenter nu komma åt live webdata som en del av sina flöden.
Superladda dina AI-arbetsflöden med realtidsdata från webben – oavsett hur skyddad sidan är. Börja använda ScrAPI MCP-server med FlowHunt redan idag.
Scrapling Fetch MCP Server möjliggör för AI-assistenter och chattbotar att komma åt text- och HTML-innehåll från webbplatser med botskydd, vilket gör det möjlig...
Anslut AI-assistenter som Claude till vilket API som helst med en OpenAPI (Swagger)-specifikation. Any OpenAPI MCP-server möjliggör semantisk endpoint-upptäckt ...
Dumpling AI MCP-servern för FlowHunt möjliggör att AI-assistenter kan ansluta till en mängd olika externa datakällor, API:er och utvecklarverktyg. Den ger kraft...