
Loki MCP-server
Loki MCP-server kopplar AI-assistenter till Grafana Loki och möjliggör sömlös frågning och analys av loggdata via Model Context Protocol. Det möjliggör LLM-driv...
Ge dina AI-agenter direkt tillgång till din app’s spår och mätvärden för snabb felsökning, undantagsspårning och telemetriinsikter med Logfire MCP-server i FlowHunt.
Logfire MCP-servern är en Model Context Protocol (MCP)-server som gör det möjligt för AI-assistenter och LLM:er att komma åt, hämta och analysera telemetridata som skickas till Logfire via OpenTelemetry-standarden. Genom att koppla ditt Logfire-projekt kan denna server låta AI-drivna verktyg och agenter fråga ut distribuerade spår, granska undantagsmönster och köra egna SQL-frågor över din applikations mätvärden och spårdata med hjälp av Logfire API:er. Denna integration möjliggör snabb felsökning, observability och automatisering av vanliga telemetrianalyser, vilket ger utvecklare förbättrade arbetsflöden för felsökning, övervakning och insiktsgenerering direkt från deras utvecklingsmiljöer eller AI-assisterade agenter.
Inga explicita promptmallar är dokumenterade i arkivet.
Inga explicita resurser (som MCP-resurser) är dokumenterade i arkivet.
find_exceptions
Hämtar antal undantag från spår, grupperade per fil, inom ett angivet tidsfönster.
find_exceptions_in_file
Ger detaljerad spårinformation om undantag som inträffar i en specifik fil över en given tidsperiod.
arbitrary_query
Kör egna SQL-frågor på OpenTelemetry-spår och mätvärden, vilket möjliggör flexibel datautforskning.
get_logfire_records_schema
Returnerar OpenTelemetry-schemat, vilket gör det möjligt för användare att skapa mer precisa egna frågor.
Undantagsövervakning och analys
Utvecklare kan snabbt se vilka filer som genererar flest undantag, identifiera trender och fokusera felsökningen.
Rotorsaksanalys
Genom att fördjupa sig i undantagsdetaljer i en viss fil kan team påskynda identifiering och lösning av kritiska problem.
Egen telemetrirapportering
Möjligheten att köra egna SQL-frågor gör det möjligt för team att skapa skräddarsydda rapporter och dashboards anpassade efter deras behov.
Schemautforskning
Med tillgång till OpenTelemetry-schemat kan utvecklare bättre förstå tillgängliga datafält för att optimera egna frågor och integrationer.
Inga installationsanvisningar tillhandahålls för Windsurf.
{
"command": ["uvx"],
"args": ["logfire-mcp"],
"type": "stdio",
"env": {
"LOGFIRE_READ_TOKEN": "YOUR_TOKEN"
}
}
"YOUR_TOKEN"
med din faktiska Logfire-read token.Skydda API-nycklar:
Lagra din token i env
-sektionen som ovan för att hålla den borta från argument och versionshantering.
uv
installerat..cursor/mcp.json
-fil i din projekts rot.{
"mcpServers": {
"logfire": {
"command": "uvx",
"args": ["logfire-mcp", "--read-token=YOUR-TOKEN"]
}
}
}
"YOUR-TOKEN"
med din faktiska Logfire-read token.Obs: Cursor stöder inte env
-fältet; använd istället argumentet --read-token
.
cline_mcp_settings.json
.{
"mcpServers": {
"logfire": {
"command": "uvx",
"args": ["logfire-mcp"],
"env": {
"LOGFIRE_READ_TOKEN": "YOUR_TOKEN"
},
"disabled": false,
"autoApprove": []
}
}
}
"YOUR_TOKEN"
med din Logfire-read token.Skydda API-nycklar:
Token hålls säker via env
-fältet i din konfiguration.
Inga installationsanvisningar tillhandahålls för Windsurf.
Att använda MCP i FlowHunt
För att integrera MCP-servrar i din FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:
Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion, ange dina MCP-serveruppgifter med detta JSON-format:
{
"logfire": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
När du har konfigurerat är AI-agenten nu kapabel att använda denna MCP som ett verktyg med tillgång till alla dess funktioner och möjligheter. Kom ihåg att byta ut "logfire"
till det faktiska namnet på din MCP-server och ersätt URL:en med din egen MCP-server-URL.
Sektion | Tillgänglighet | Detaljer/Noteringar |
---|---|---|
Översikt | ✅ | |
Lista över prompts | ⛔ | Inga promptmallar är dokumenterade. |
Lista över resurser | ⛔ | Inga resurser är dokumenterade. |
Lista över verktyg | ✅ | 4 verktyg dokumenterade: undantag, frågor och schemaåtkomst. |
Skydda API-nycklar | ✅ | Exempel på miljövariabel och konfig-JSON tillhandahålls. |
Samplingstöd (mindre viktigt vid utvärdering) | ⛔ | Ingen nämner samplingstöd. |
Baserat på ovanstående är Logfire MCP-servern en fokuserad, produktionsklar MCP-server för observability, men saknar dokumentation för promptmallar, resurser, rötter eller samplingstöd. Den utmärker sig genom att exponera ett litet antal värdefulla verktyg för telemetri och felsökning. Slutbetyg: 6/10 — utmärkt för sitt användningsområde, men inte en fullskalig MCP-referensimplementation.
Har en LICENSE | ⛔ (Ingen LICENSE-fil hittades) |
---|---|
Har minst ett verktyg | ✅ |
Antal forks | 9 |
Antal stjärnor | 77 |
Logfire MCP-servern gör det möjligt för AI-agenter och LLM:er att få åtkomst till och analysera telemetridata (spår, mätvärden, undantag) som samlats in via OpenTelemetry, med hjälp av Logfire API:er för realtidsövervakning och felsökning.
Logfire MCP erbjuder verktyg för undantagsräkning och fördjupning (find_exceptions, find_exceptions_in_file), egna SQL-frågor över telemetri (arbitrary_query) och schemaupptäckt (get_logfire_records_schema).
Lagra din Logfire-read token i miljövariabler (env-fält i konfigurationen) för Claude och Cline, och som CLI-argument för Cursor. Undvik att hårdkoda tokens i källkontrollerade filer.
Typiska användningsområden är undantagsövervakning, rotorsaksanalys, egen telemetrirapportering och schemautforskning—allt tillgängligt för AI-agenter i FlowHunt via MCP-integrationen.
Lägg till MCP-komponenten i ditt FlowHunt-flöde, konfigurera den med din Logfire MCP-serverinformation, och din AI-agent kan köra frågor och analyser på din applikations telemetridata.
Integrera Logfire MCP-server med FlowHunt för att låsa upp realtids telemetrinsikter, undantagsanalys och egna rapporter för dina AI-drivna arbetsflöden.
Loki MCP-server kopplar AI-assistenter till Grafana Loki och möjliggör sömlös frågning och analys av loggdata via Model Context Protocol. Det möjliggör LLM-driv...
JMeter MCP-servern bygger en bro mellan Apache JMeter och AI-drivna arbetsflöden, vilket möjliggör automatiserad prestandatestning, analys och sömlös integratio...
ModelContextProtocol (MCP) Server fungerar som en brygga mellan AI-agenter och externa datakällor, API:er och tjänster, vilket gör det möjligt för FlowHunt-anvä...