+++ title = “Google Drive MCP-server” linkbuilding = [ “drive mcp”, “mcp-server tillgängligt verktyg”, “mcp-server til...
+++ title = “Google Search Console MCP-server” linkbuilding = [ “search console mcp”, “mcp-server tillgängligt verktyg”, “mcp-server tillhandahåller verktyg”, “verktyg mcp-server”, “mcp-serververktyg”, “seo mcp” ] keywords = [ “search console mcp-server”, “google search console mcp”, “mcp-server”, “google search console”, “search console mcp”, “mcp”, “seo”, “search analytics”, “model context protocol”, “indexing api” ] description = “Integrera Google Search Console-data med AI-assistenter och utvecklarverktyg med hjälp av Model Context Protocol (MCP). Google Search Console MCP-servern möjliggör SEO-frågor på naturligt språk, automatiserad övervakning av sökprestanda, hantering av indexering och sömlös arbetsflödesintegration för verktyg som Claude, Cursor, Windsurf och FlowHunt.” image = “/images/hosted-mcp-servers/googlecalendar.webp” shortDescription = “Koppla enkelt Google Search Console till AI-drivna utvecklararbetsflöden och assistenter med Google Search Console MCP-servern för SEO-insikter på naturligt språk, automatiserad indexering och optimering av sökprestanda.” tags = [ “SEO”, “Search Console”, “MCP”, “AI Integration”, “Developer Tools”, “Search Analytics”, “Indexing” ] categories = [ “MCP Servers” ] showCTA = true ctaHeading = “Testa Google Search Console MCP-server med FlowHunt” ctaDescription = “Lås upp kraftfulla SEO-insikter i dina AI-arbetsflöden, automatisera indexeringshantering och ge ditt team möjlighet att optimera sökprestanda direkt från dina favoritverktyg.” ctaPrimaryText = “Prova nu” ctaPrimaryURL = “https://app.flowhunt.io/sign-in" ctaSecondaryText = “Boka en demo” ctaSecondaryURL = “/demo/” fork = 12 star = 89 overallScore = "” date = “2026-01-14 13:44:27”
[[mcpServerConf]]
client = “windsurf”
config = “1. Kontrollera att Python 3.10+ är installerat.
2. Klona repot eller installera via PyPI.
3. Lägg till Google Search Console MCP-server i din mcpServers-konfiguration:
{
"mcpServers": {
"google-search-console-mcp": {
"command": "python3",
"args": ["-m", "google_search_console_mcp"]
}
}
}
4. Spara och starta om Windsurf.
5. Verifiera åtkomst i Windsurf-gränssnittet.
"
[[mcpServerConf]]
client = “claude”
config = “1. Kontrollera att Python 3.10+ är installerat.
2. Använd claude-config-template.json som mall.
3. Uppdatera mcpServers:
{
"mcpServers": {
"google-search-console-mcp": {
"command": "python3",
"args": ["-m", "google_search_console_mcp"]
}
}
}
4. Spara och starta om Claude.
5. Bekräfta anslutningen i Claudes integrationer.
"
[[mcpServerConf]] client = “cursor” config = “1. Installera Python 3.10+ och MCP-servern. 2. Redigera Cursors konfiguration: { "mcpServers": { "google-search-console-mcp": { "command": "python3", "args": ["-m", "google_search_console_mcp"] } } } 3. Spara och starta om Cursor. 4. Kontrollera serverstatus i MCP-panelen. "
[[mcpServerConf]] client = “cline” config = “1. Kontrollera att Python 3.10+ finns installerat. 2. Installera MCP-servern. 3. Uppdatera Clines konfiguration: { "mcpServers": { "google-search-console-mcp": { "command": "python3", "args": ["-m", "google_search_console_mcp"] } } } 4. Spara, starta om och verifiera anslutningen. "
[[faq]] question = “Vad är Google Search Console MCP-server?” answer = “Det är en brygga mellan Google Search Console och AI-/utvecklarverktyg via Model Context Protocol (MCP), vilket möjliggör tillgång till SEO-data på naturligt språk, sökanalys, indexeringshantering och sömlös arbetsflödesintegration för optimering av sökprestanda.”
[[faq]] question = “Vilka är huvudområdena för användning?” answer = “Övervakning av SEO-prestanda, automatiserad rapportering av sökanalys, hantering av URL-indexering, övervakning av webbplatsens hälsa, spårning av nyckelordsresultat, upptäckt av genomsökningsfel, hantering av sitemaps och AI-drivna SEO-insikter.”
[[faq]] question = “Hur skyddar jag mina Google Search Console-uppgifter?” answer = “Lagra känslig information som API-nycklar eller servicekontofiler i miljövariabler. Ställ t.ex. in ‘GOOGLE_APPLICATION_CREDENTIALS’ till sökvägen till din autentiseringsfil i MCP-serverns konfiguration.”
[[faq]] question = “Kan jag skicka flera URL:er för indexering samtidigt?” answer = “Ja, servern innehåller verktyget batch_submit_urls_for_indexing som låter dig skicka upp till 100 URL:er i en enda begäran, vilket gör massindexering effektivt.”
[[faq]] question = “Hur kontrollerar jag om mina URL:er faktiskt är indexerade av Google?” answer = “Använd verktyget get_url_inspection, som ger den definitiva indexeringsstatusen med utfallskoder (PASS=indexerad, FAIL=fel, NEUTRAL=utesluten). Observera att fältet ‘indexed’ i sitemap-data är föråldrat och alltid returnerar 0.”
[[faq]] question = “Vilka sökdimensioner och mätvärden finns tillgängliga?” answer = “Verktyget search_analytics stöder dimensioner som query, page, country, device, date och searchAppearance, med mätvärden som klick, visningar, CTR och genomsnittlig position. Du kan filtrera, aggregera och paginera resultat för heltäckande analys.”
[[faq]] question = “Hur använder jag denna MCP-server i FlowHunt?” answer = “Lägg till MCP-komponenten i ditt FlowHunt-flöde, öppna dess konfiguration och ange MCP-serverns detaljer i JSON-format. När den är konfigurerad får din AI-agent tillgång till Google Search Console-data för förbättrade SEO-funktioner.” +++
Vad gör “Google Search Console” MCP-servern?
Google Search Console MCP-servern möjliggör sömlös integration av Google Search Console-data och funktionalitet med AI-assistenter och utvecklingsverktyg som Claude, Cursor och Windsurf via Model Context Protocol (MCP). Genom att fungera som en brygga mellan MCP-klienter och Search Console API kan användare fråga efter sökprestandadata, hantera indexering, övervaka webbplatsens hälsa och analysera SEO-mätvärden på naturligt språk. Denna kraftfulla integration låser upp omfattande sökanalys med stöd för flera dimensioner (frågor, sidor, länder, enheter), detaljerad indexeringshantering via Google Indexing API och automatiserade SEO-arbetsflöden. AI-agenter kan nu utföra avancerad SEO-analys, automatisera rapportering, hantera sitemaps, skicka URL:er för indexering och leverera handlingsbara optimeringsinsikter direkt i utvecklararbetsflöden eller AI-drivna verktyg, vilket eliminerar behovet av manuell navigering i kontrollpaneler och snabbar upp datadrivna SEO-beslut.
Lista med exempelprompter
Sökprestandaanalys
Visa de 20 främsta sökfrågorna efter visningar de senaste 30 dagarna
Lista alla sidor med mer än 1000 visningar men CTR under 2% de senaste 14 dagarna
Jämför klick och visningar de senaste 7 dagarna mot de föregående 30 dagarna
Hitta sökfrågor där vi ligger på plats 4-10 med hög visningsvolym
Indexeringsstatus och hantering
Kontrollera indexeringsstatus för min startsida och de 10 viktigaste landningssidorna
Skicka dessa 50 nya blogginläggs-URL:er för indexering
Visa alla URL:er som misslyckades med indexering med felutfall
Verifiera att noindex-taggarna har tagits bort från våra produktsidor
URL-inspektion och täckning
Inspektera denna URL och visa dess mobilanvändbarhet och fel i strukturerad data
Kontrollera om dessa 20 URL:er faktiskt är indexerade av Google
Hitta alla sidor som är uteslutna från indexering och visa orsakerna
Sitemap-hantering
Lista alla sitemaps för min webbplats med felantal och inlämningsdatum
Visa detaljerad information om den huvudsakliga XML-sitemap inklusive varningar
Skicka in denna nya sitemap-URL till Google Search Console
Geografisk och enhetsprestanda
Visa sökprestanda per land för de senaste 90 dagarna
Jämför prestanda för mobil mot desktop för alla sidor
Hitta vilka länder som ger flest visningar men har lägst CTR
Resurslista
Inga explicita resurser listas i arkivet.
Lista över verktyg
Google Search Console MCP-servern erbjuder 13 heltäckande verktyg för SEO-övervakning, sökanalys och indexeringshantering:
Sök- och prestandaanalys
- search_analytics – Hämta sökanalysdata från Google Search Console med omfattande filtrering, paginering och aggregering. Fråga på flera dimensioner (query, page, country, device, date, searchAppearance) och hämta mätvärden som klick, visningar, CTR och position. Stöd för avancerad filtrering med operatorer (equals, contains, regex), paginering upp till 25 000 rader, flera söktyper (webb, bild, video, nyheter, discover, googleNews) och konfigurerbara aggregeringsmetoder.
Indexhantering
submit_url_for_indexing – Skicka en enskild URL till Googles Indexing API för snabbare genomsökning och indexering av nytt eller uppdaterat innehåll. Stödjer både URL_UPDATED- och URL_DELETED-åtgärder, vilket möjliggör omedelbar avisering till Google vid innehållsförändringar.
batch_submit_urls_for_indexing – Skicka upp till 100 URL:er till Googles Indexing API i ett enda batch-anrop. Perfekt för masspublicering av nya sidor, uppdatering av innehåll på flera URL:er eller effektiv borttagning av sidor från indexet.
get_indexing_status – Hämta indexeringsstatus för en tidigare inskickad URL via Indexing API. Kontrollera inlämningshistorik, senaste aviseringsdatum och aktuell indexeringsstatus för URL:er du aktivt skickat in.
URL-inspektion och täckning
- get_url_inspection – Inspektera en specifik URL för omfattande indexerings- och genomsökningsinformation. Det är det definitiva verktyget för att kontrollera om en URL faktiskt är indexerad av Google. Returnerar utfallskoder (PASS=indexerad, FAIL=fel, NEUTRAL=utesluten), täckningsstatus, senaste genomsökning, kanonisk URL, mobilanvändbarhet, strukturerade data-fel m.m.
Webbplatshantering
list_sites – Lista alla verifierade webbplatser i ditt Google Search Console-konto. Returnerar webbplatsers URL:er i rätt format (URL-prefix som https://exempel.se/ eller domänegenskaper som sc-domain:exempel.se) samt behörighetsnivåer.
get_site_info – Hämta detaljerad information om en specifik verifierad webbplats, inklusive verifieringsstatus, behörighetsnivå och URL-format.
add_site – Lägg till eller registrera en ny webbplats i Google Search Console. Stöd för både URL-prefix (https://exempel.se/ ) och domänegenskaper (sc-domain:exempel.se). Observera att webbplatsen måste verifieras innan full åtkomst ges.
delete_site – Ta bort eller avregistrera en webbplats från ditt Google Search Console-konto och rensa bort egenskaper du inte längre behöver övervaka.
Sitemap-hantering
get_sitemaps – Lista alla sitemaps för en specifik webbplats. Returnerar antal inlämnade URL:er, fel, varningar, senaste inlämning och bearbetningsstatus. Obs! Fältet ‘indexed’ i innehållet är föråldrat hos Google och returnerar alltid 0 – använd get_url_inspection för att kontrollera verklig indexeringsstatus för enskilda URL:er.
get_sitemap – Hämta detaljerad information om en specifik sitemap inklusive senaste inlämning, nedladdning, varningar, fel, innehållsuppdelning och bearbetningsstatus. Viktigt för felsökning av sitemap-problem.
submit_sitemap – Skicka in en ny sitemap till Google Search Console för genomsökning. Informerar Google om din webbplatsstruktur och hjälper till att prioritera viktiga sidor vid genomsökning.
delete_sitemap – Ta bort eller radera en sitemap från Google Search Console. Användbart för att rensa bort föråldrade eller felaktiga sitemap-inlämningar.
Användningsområden för denna MCP-server
När trafiken minskade med 40 % och du behöver identifiera vilka sidor som påverkats
Du märker en plötslig trafiknedgång i Google Analytics men kan inte hitta orsaken. Använd Google Search Console MCP-servern för att fråga sökanalysdata och jämföra klick och visningar för alla sidor de senaste 30 dagarna mot föregående period. AI-agenten kan automatiskt identifiera vilka specifika URL:er som har störst tapp, korrelera dem med nedgångar i frågaresultat och visa om problemet är utbrett eller isolerat till särskilda sidmallar eller innehållskategorier.
När du ska skicka in 500 nya blogginlägg för indexering efter migrering
Ditt team har precis migrerat 500 bloggartiklar till en ny domän eller URL-struktur, och att vänta på att Google ska upptäcka och indexera dem kan ta veckor. Med verktyget batch_submit_urls_for_indexing kan du programmässigt skicka in alla 500 URL:er i batchar om 100, och omedelbart meddela Google om de nya innehållsplatserna. AI-agenten kan följa inlämningsstatus för varje batch och varna dig om några URL:er får indexeringsfel, vilket påskyndar återhämtningen av synligheten efter migreringen.
När du analyserar vilka sökfrågor som ger flest visningar men inga klick
Du vill identifiera nyckelords-möjligheter där dina sidor syns i sökresultat men inte får några klick. Fråga sökanalysdata filtrerat på visningar över 1 000 och klick lika med noll, sorterat efter visningsvolym. AI-agenten visar frågor där ditt innehåll rankar men har låg CTR och föreslår optimering av titlar och metabeskrivningar för att fånga den outnyttjade trafiken.
När du kontrollerar indexeringsstatus för nyligen publicerade produktsidor
Ditt e-handelsteam har publicerat 50 nya produktsidor igår och intressenter vill ha bekräftelse på att de är indexerade och sökbara. Använd get_url_inspection för att systematiskt kontrollera indexeringsutfallet för varje produkt-URL. AI-agenten identifierar vilka sidor som är indexerade (PASS), vilka som har fel (FAIL) och vilka som är uteslutna (NEUTRAL), och ger en prioriterad åtgärdslista för att maximera produkternas synlighet under högsäsong.
När du undersöker mobilanvändbarhetsproblem som flaggats av Google
Search Console visar varningar om mobilanvändbarhet på dussintals sidor, men du behöver detaljer för att informera utvecklarteamet. Använd get_url_inspection för att inspektera berörda URL:er och hämta detaljerade diagnoser, t.ex. viewportproblem, textstorlek och avstånd mellan klickbara element. AI-agenten sammanställer en strukturerad rapport med specifika tekniska åtgärder per sidtyp och snabbar på åtgärderna.
När du följer upp Core Web Vitals-prestanda på viktiga landningssidor
Din SEO-strategi bygger på utmärkta Core Web Vitals för konverterande landningssidor. Även om MCP-servern inte direkt visar Core Web Vitals kan du använda URL-inspektion för att bevaka genomsökningsstatus och indexeringshälsa, så att sidorna förblir indexerade och åtkomliga, samtidigt som du samkör med separata prestandamätverktyg för full överblick.
När du upptäcker att startsidan inte rankar för ditt varumärke
Dina varumärkessökningar har oväntat tappat ranking och startsidan syns inte längre på varumärkesfrågor. Använd get_url_inspection för att kontrollera startsidans indexeringsstatus, kanonisk URL och genomsökningsbarhet. Fråga sökanalys på ditt varumärke för att se om visningar finns kvar men klick har minskat, vilket indikerar ett rankingproblem snarare än total avindexering. AI-agenten korrelerar indexeringsdata med frågor för att avgöra om det handlar om tekniska problem, manuella åtgärder eller algoritmändringar.
När du hanterar sitemap-fel som påverkar 1 200 URL:er
Search Console rapporterar fel för 1 200 URL:er i din XML-sitemap, men att undersöka varje manuellt är opraktiskt. Använd get_sitemap för detaljerad feluppdelning och varningar, och korsa problematiska URL:er med get_url_inspection för att förstå specifika indexeringsproblem. AI-agenten kategoriserar fel (404:or, redirect-kedjor, noindex-taggar m.m.), prioriterar åtgärder utifrån trafikpåverkan och skapar en åtgärdsplan för utvecklarna.
När du optimerar innehåll för röstsökningar
Du vill identifiera frågebaserade sökningar som ger visningar och optimera för röstsök. Fråga sökanalysdata efter queries med “hur”, “vad”, “varför”, “var” och “när”, sorterat efter visningar. AI-agenten visar vilka frågeformat som fungerar, vilka sidor som rankar för dessa frågor och var innehållsgap finns – som vägledning för röstsöksoptimering.
När du övervakar internationell SEO-prestanda per land och språk
Din flerspråkiga webbplats har kunder i 15 länder och du behöver landspecifik sökprestanda. Använd sökanalys med country-dimensionen för att analysera klick, visningar, CTR och ranking per marknad. AI-agenten identifierar länder som underpresterar, vilka sidor som går bra internationellt kontra lokalt och var lokalisering kan ge störst organisk tillväxt.
När du validerar att noindex-taggar har tagits bort
Ditt team tog bort noindex-taggar från 200 sidor förra veckan efter att staging-innehåll råkat publiceras med indexering blockerad. Använd get_url_inspection för att verifiera att Google ser borttagningen och har genomsökt sidorna utan indexeringsbegränsningar. AI-agenten bekräftar vilka URL:er som nu är indexerbara, vilka som fortfarande är uteslutna och vilka som behöver skickas in igen för snabbare reindexering.
När du identifierar innehållskanibalisering
Flera sidor på din webbplats riktar sig mot samma nyckelord och kan konkurrera internt i sökresultaten. Fråga sökanalysdata på page-dimensionen för specifika högt värderade queries och se vilka URL:er som får visningar och klick. AI-agenten identifierar när 3–4 sidor delar på visningarna för samma fråga, vilket indikerar kanibalisering, och föreslår konsolidering eller innehållsdifferentiering för att stärka rankingpotentialen.
När du upptäcker plötsliga crawl-fel efter en kodrelease
Utvecklingsteamet har lanserat en redesign och du vill säkerställa att inga genomsökningsproblem uppstått. Använd list_sites och get_site_info för åtkomst, och inspektera sedan kritiska sidtyper med get_url_inspection för att hitta nya crawl-fel, serverfel eller robots.txt-blockeringar. AI-agenten flaggar regress snabbt, så ni kan rulla tillbaka eller åtgärda innan rankingarna påverkas.
När du förbereder datadrivna SEO-rapporter till ledningen
Din CMO vill ha månatliga SEO-rapporter med statistik: totala klick, visningstrender, toppqueries och indexeringstäckning. Använd sökanalys för att extrahera data över dimensioner (queries, sidor, enheter, länder) och kombinera med sitemap- och URL-inspektionsdata för indexeringsstatus. AI-agenten sammanfattar i naturligt språk och visualiseringar och sparar timmar av manuell rapportframtagning.
När du lanserar en ny webbplatssektion och följer indexering
Du lanserar en ny bloggsektion med 75 artiklar och vill spåra hur snabbt Google indexerar och rankar innehållet. Skicka alla URL:er via batch_submit_urls_for_indexing, övervaka indexering med get_indexing_status och get_url_inspection. AI-agenten följer tid till indexering per artikel, hittar flaskhalsar och larmar när allt är indexerat – så din satsning snabbt får organisk synlighet.
Så här sätter du upp det
Windsurf
- Kontrollera att Python 3.10+ är installerat.
- Klona arkivet eller installera via PyPI om tillgängligt.
- Lägg till Google Search Console MCP-servern i din
mcpServers-konfiguration:{ "mcpServers": { "google-search-console-mcp": { "command": "python3", "args": ["-m", "google_search_console_mcp"] } } } - Spara konfigurationen och starta om Windsurf.
- Verifiera att MCP-servern listas och är åtkomlig i Windsurf-gränssnittet.
Claude
- Kontrollera att Python 3.10+ är installerat.
- Använd den tillhandahållna
claude-config-template.jsonsom utgångspunkt. - Lägg till eller uppdatera fältet
mcpServersi Claude-konfigurationen:{ "mcpServers": { "google-search-console-mcp": { "command": "python3", "args": ["-m", "google_search_console_mcp"] } } } - Spara konfigurationen och starta om Claude.
- Bekräfta MCP-serveranslutning i Claudes integrationspanel.
Cursor
- Installera Python 3.10+ och klona eller installera MCP-servern.
- Lokalisera Cursors konfigurationsfil.
- Lägg till MCP-servern:
{ "mcpServers": { "google-search-console-mcp": { "command": "python3", "args": ["-m", "google_search_console_mcp"] } } } - Spara och starta om Cursor.
- Kontrollera att servern visas bland Cursors tillgängliga MCP-servrar.
Cline
- Kontrollera att Python 3.10+ finns installerat.
- Ladda ner eller installera MCP-servern.
- Ändra Clines konfiguration:
{ "mcpServers": { "google-search-console-mcp": { "command": "python3", "args": ["-m", "google_search_console_mcp"] } } } - Spara, starta om Cline och kontrollera MCP-serverns anslutning.
Säkra API-nycklar (med miljövariabler):
För att ange känsliga autentiseringsuppgifter (som Google Search Console API-nycklar eller servicekontofiler), använd miljövariabler. Exempel på konfiguration:
{
"mcpServers": {
"google-search-console-mcp": {
"command": "python3",
"args": ["-m", "google_search_console_mcp"],
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/sökväg/till/dina/credentials.json"
},
"inputs": {
"site_url": "sc-domain:exempel.se"
}
}
}
}
Hur du använder denna MCP i flöden
Använda MCP i FlowHunt
För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:

Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfiguration anger du MCP-serverns uppgifter enligt detta JSON-format:
{
"google-search-console-mcp": {
"transport": "streamable_http",
"url": "https://dinmcpserver.exempel/pathtothemcp/url"
}
}
När det är konfigurerat kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner. Kom ihåg att ändra “google-search-console-mcp” till det faktiska namnet på din server och byt ut URL:en mot din egen MCP-serveradress.
Översikt
| Sektion | Tillgänglighet | Detaljer/Kommentarer |
|---|---|---|
| Översikt | ✅ | |
| Lista med prompter | ⛔ | Inga promptmallar funna |
| Lista med resurser | ⛔ | Ej explicit listade |
| Lista med verktyg | ✅ | 13 heltäckande SEO- och indexeringsverktyg |
| Säkra API-nycklar | ✅ | Exempel på miljövariabler i config |
| Samplingstöd (mindre viktigt vid utvärdering) | ⛔ | Ej dokumenterat |
Mellan dokumentationen och koden ger Google Search Console MCP en tydlig översikt, omfattande verktygsuppsättning och installationsinstruktioner, men saknar detaljerad dokumentation om promptar och resurser. För säkerhet stöds konfiguration via miljövariabler. Roots och sampling nämns inte.
Vår bedömning
Utifrån ovanstående tabeller får denna MCP-server mycket högt betyg för verktygsutbudet (13 verktyg), översikt och installationsinstruktioner. Den erbjuder robusta SEO- och indexeringsmöjligheter med detaljerade verktygsbeskrivningar. Däremot saknas promptmallar och resursdefinitioner. Den passar bäst för SEO-specialister, utvecklare och marknadsföringsteam som förstår Search Console och behöver programmatisk åtkomst till sökdata och indexeringshantering.
MCP-betyg
| Har LICENSE | ✅ (MIT) |
|---|---|
| Minst ett verktyg | ✅ (13 verktyg) |
| Antal forkningar | 12 |
| Antal stjärnor | 89 |
Kontakta oss för att vara värd för din MCP-server i FlowHunt
FlowHunt erbjuder ett extra säkerhetslager mellan dina interna system och AI-verktyg, vilket ger dig granulär kontroll över vilka verktyg som är tillgängliga från dina MCP-servrar. MCP-servrar som hostas i vår infrastruktur kan sömlöst integreras med FlowHunts chatbot samt populära AI-plattformar som ChatGPT, Claude och olika AI-redigerare.
Låt oss bygga ditt eget AI-team
Vi hjälper företag som ditt att utveckla smarta chatbotar, MCP-servrar, AI-verktyg eller andra typer av AI-automatisering för att ersätta människor i repetitiva uppgifter i din organisation.
Lär dig mer
+++ title = “Google Ads MCP-server” linkbuilding = [ “google ads mcp”, “mcp-server tillgängligt verktyg”, “mcp-server ...
+++ title = “Klaviyo MCP-server” linkbuilding = [ “klaviyo mcp”, “mcp-server tillgängligt verktyg”, “mcp-server tillha...