
Loki MCP Server
Loki MCP-serveren kobler AI-assistenter til Grafana Loki, og muliggjør sømløs spørring og analyse av loggdata via Model Context Protocol. Den gir LLM-drevne arb...
Gi AI-agentene dine direkte tilgang til appens spor og målinger for rask feilsøking, unntakssporing og telemetriinnsikt med Logfire MCP-server i FlowHunt.
Logfire MCP-server er en Model Context Protocol (MCP)-server som lar AI-assistenter og LLM-er få tilgang til, hente ut og analysere telemetridata sendt til Logfire via OpenTelemetry-standarden. Ved å koble ditt Logfire-prosjekt gjør denne serveren det mulig for AI-drevne verktøy og agenter å forespørre distribuerte spor, inspisere unntaksmønstre og kjøre egendefinerte SQL-spørringer over applikasjonens målings- og sporingsdata via Logfire API-er. Denne integrasjonen muliggjør rask feilsøking, observability og automatisering av vanlige telemetrianalysoppgaver, og gir utviklere forbedrede arbeidsflyter for feilsøking, overvåking og innsiktsgenerering direkte fra utviklingsmiljøet eller AI-assistenter.
Ingen eksplisitte prompt-maler er dokumentert i depotet.
Ingen eksplisitte ressurser (som MCP-ressurser) er dokumentert i depotet.
find_exceptions
Henter antall unntak fra spor, gruppert etter fil, innenfor et spesifisert tidsvindu.
find_exceptions_in_file
Gir detaljert sporingsinformasjon om unntak som oppstår i en bestemt fil over et gitt tidsrom.
arbitrary_query
Utfører egendefinerte SQL-spørringer på OpenTelemetry-spor og -målinger, og gir fleksibel datautforskning.
get_logfire_records_schema
Returnerer OpenTelemetry-skjemaet, slik at brukere kan lage mer presise egendefinerte spørringer.
Unntaksovervåking og analyse
Utviklere kan raskt finne ut hvilke filer som genererer flest unntak, identifisere trender og fokusere feilsøkingen.
Rotårsaksanalyse
Ved å dykke ned i unntaksdetaljer i en bestemt fil kan teamet raskere identifisere og løse kritiske problemer.
Egendefinert telemetrirapportering
Muligheten til å kjøre vilkårlige SQL-spørringer gir teamet mulighet til å lage skreddersydde målingsrapporter og dashbord etter behov.
Skjemautforskning
Med tilgang til OpenTelemetry-skjemaet kan utviklere bedre forstå tilgjengelige datafelt for å optimalisere egendefinerte spørringer og integrasjoner.
Ingen oppsettinstruksjoner gitt for Windsurf.
{
"command": ["uvx"],
"args": ["logfire-mcp"],
"type": "stdio",
"env": {
"LOGFIRE_READ_TOKEN": "YOUR_TOKEN"
}
}
"YOUR_TOKEN"
med din faktiske Logfire-read token.Sikring av API-nøkler:
Lagre tokenet i env
-seksjonen som over for å holde det borte fra argumenter og kildekontroll.
uv
installert..cursor/mcp.json
-fil i prosjektets rotmappe.{
"mcpServers": {
"logfire": {
"command": "uvx",
"args": ["logfire-mcp", "--read-token=YOUR-TOKEN"]
}
}
}
"YOUR-TOKEN"
med din faktiske Logfire-read token.Merk: Cursor støtter ikke env
-feltet; bruk --read-token
-argumentet i stedet.
cline_mcp_settings.json
.{
"mcpServers": {
"logfire": {
"command": "uvx",
"args": ["logfire-mcp"],
"env": {
"LOGFIRE_READ_TOKEN": "YOUR_TOKEN"
},
"disabled": false,
"autoApprove": []
}
}
}
"YOUR_TOKEN"
med din Logfire-read token.Sikring av API-nøkler:
Tokens holdes sikre via env
-feltet i konfigurasjonen.
Ingen oppsettinstruksjoner gitt for Windsurf.
Bruk av MCP i FlowHunt
For å integrere MCP-servere i din FlowHunt-arbeidsflyt, start med å legge til MCP-komponenten i flowet ditt og koble den til AI-agenten din:
Klikk på MCP-komponenten for å åpne konfigurasjonspanelet. I systemets MCP-konfigurasjonsseksjon, legg inn detaljene til MCP-serveren din med dette JSON-formatet:
{
"logfire": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Når den er konfigurert, vil AI-agenten kunne benytte denne MCP-en som et verktøy med tilgang til alle dens funksjoner og muligheter. Husk å endre "logfire"
til det faktiske navnet på din MCP-server og bytt ut URL-en med din egen MCP-server-URL.
Seksjon | Tilgjengelighet | Detaljer/Notater |
---|---|---|
Oversikt | ✅ | |
Liste over prompt-maler | ⛔ | Ingen prompt-maler er dokumentert. |
Liste over ressurser | ⛔ | Ingen ressurser er dokumentert. |
Liste over verktøy | ✅ | 4 verktøy dokumentert: unntak, spørringer og skjema-tilgang. |
Sikring av API-nøkler | ✅ | Eksempler på miljøvariabler og config-JSON er gitt. |
Støtte for sampling (mindre viktig) | ⛔ | Ingen omtale av sampling-støtte. |
Basert på ovenstående er Logfire MCP-server en fokusert, produksjonsklar MCP-server for observability, men mangler dokumentasjon for prompt-maler, ressurser, roots eller sampling-støtte. Den utmerker seg ved å eksponere et lite utvalg av høyt verdsatte verktøy for telemetri og feilsøking. Sluttvurdering: 6/10 — utmerket for sitt bruksområde, men ikke en fullverdig MCP-referanseimplementasjon.
Har en LICENSE-fil | ⛔ (Ingen LICENSE-fil funnet) |
---|---|
Har minst ett verktøy | ✅ |
Antall forks | 9 |
Antall stjerner | 77 |
Logfire MCP-server gjør det mulig for AI-agenter og LLM-er å få tilgang til og analysere telemetridata (spor, målinger, unntak) samlet inn via OpenTelemetry, ved å bruke Logfire API-er for sanntids observability og feilsøking.
Logfire MCP tilbyr verktøy for unntakstelling og dypdykk (find_exceptions, find_exceptions_in_file), egendefinert SQL over telemetri (arbitrary_query), og skjemaoppdagelse (get_logfire_records_schema).
Lagre din Logfire-read token i miljøvariabler (env-felt i config) for Claude og Cline, og som et CLI-argument for Cursor. Unngå å hardkode tokens i kildekontrollerte filer.
Typiske bruksområder inkluderer unntaksovervåking, rotårsaksanalyse, egendefinert telemetrirapportering og skjemautforskning – alt tilgjengelig for AI-agenter i FlowHunt via MCP-integrasjonen.
Legg til MCP-komponenten i ditt FlowHunt-flow, konfigurer den med detaljene til din Logfire MCP-server, og AI-agenten din vil kunne kjøre forespørsler og analyser på applikasjonens telemetridata.
Integrer Logfire MCP-server med FlowHunt for å låse opp sanntids telemetriforespørsler, unntaksinnsikt og egendefinert rapportering for AI-drevne arbeidsflyter.
Loki MCP-serveren kobler AI-assistenter til Grafana Loki, og muliggjør sømløs spørring og analyse av loggdata via Model Context Protocol. Den gir LLM-drevne arb...
Cloudflare MCP Server fungerer som en bro mellom AI-assistenter og Cloudflares skytjenester, og muliggjør automatisering av konfigurasjoner, logger, bygg og dok...
MCP-PIF (Model Context Protocol - Personal Intelligence Framework) Server kobler AI-assistenter med eksterne data, verktøy og tjenester for arbeidsplassadminist...