
Loki MCP Server
Serwer Loki MCP łączy asystentów AI z Grafana Loki, umożliwiając płynne zapytania i analizę danych logów za pomocą Model Context Protocol. Umożliwia przepływy p...

Daj swoim agentom AI bezpośredni dostęp do śladów i metryk Twojej aplikacji, by szybko debugować, śledzić wyjątki i analizować telemetrię w FlowHunt dzięki Logfire MCP Server.
FlowHunt zapewnia dodatkową warstwę bezpieczeństwa między Twoimi systemami wewnętrznymi a narzędziami AI, dając Ci szczegółową kontrolę nad tym, które narzędzia są dostępne z Twoich serwerów MCP. Serwery MCP hostowane w naszej infrastrukturze można bezproblemowo zintegrować z chatbotem FlowHunt oraz popularnymi platformami AI, takimi jak ChatGPT, Claude i różne edytory AI.
Logfire MCP Server to serwer Model Context Protocol (MCP), który pozwala asystentom AI i LLM-om na dostęp, pobieranie i analizę danych telemetrycznych wysyłanych do Logfire przez standard OpenTelemetry. Po podłączeniu swojego projektu Logfire, serwer ten umożliwia narzędziom i agentom opartym o AI wykonywanie zapytań do rozproszonych śladów, analizę wzorców wyjątków oraz uruchamianie własnych zapytań SQL na metrykach i śladach Twojej aplikacji za pomocą API Logfire. Ta integracja umożliwia szybkie rozwiązywanie problemów, obserwowalność i automatyzację typowych zadań analizy telemetrii, zapewniając programistom usprawnione przepływy pracy do debugowania, monitorowania i generowania wglądów bezpośrednio z ich środowisk deweloperskich lub przez agentów wspieranych przez AI.
W repozytorium nie udokumentowano żadnych szablonów promptów.
W repozytorium nie udokumentowano żadnych jawnych zasobów (jako zasoby MCP).
find_exceptions
Pobiera liczbę wyjątków ze śladów, pogrupowaną według plików, w określonym przedziale czasu.
find_exceptions_in_file
Zapewnia szczegółowe informacje o śladach dotyczących wyjątków występujących w określonym pliku w danym przedziale czasowym.
arbitrary_query
Wykonuje własne zapytania SQL na śladach i metrykach OpenTelemetry, umożliwiając elastyczną eksplorację danych.
get_logfire_records_schema
Zwraca schemat OpenTelemetry, co pozwala użytkownikom tworzyć bardziej precyzyjne własne zapytania.
Monitorowanie i analiza wyjątków
Programiści mogą szybko zidentyfikować, które pliki generują najwięcej wyjątków, wychwycić trendy i skoncentrować wysiłki debugowania.
Analiza przyczyn źródłowych
Zagłębiając się w szczegóły wyjątków w konkretnym pliku, zespoły mogą szybciej zidentyfikować i rozwiązać krytyczne problemy.
Własne raportowanie telemetryczne
Możliwość uruchamiania dowolnych zapytań SQL pozwala zespołom generować niestandardowe raporty i dashboardy dopasowane do ich potrzeb.
Eksploracja schematu
Dzięki dostępowi do schematu OpenTelemetry, programiści mogą lepiej zrozumieć dostępne pola danych, by optymalizować własne zapytania i integracje.
Brak instrukcji konfiguracji dla Windsurf.
{
"command": ["uvx"],
"args": ["logfire-mcp"],
"type": "stdio",
"env": {
"LOGFIRE_READ_TOKEN": "YOUR_TOKEN"
}
}
"YOUR_TOKEN" na swój rzeczywisty token odczytu Logfire.Zabezpieczanie kluczy API:
Przechowuj swój token w sekcji env, jak powyżej, aby nie podawać go w argumentach i nie umieszczać w systemie kontroli wersji.
uv..cursor/mcp.json w katalogu głównym projektu.{
"mcpServers": {
"logfire": {
"command": "uvx",
"args": ["logfire-mcp", "--read-token=YOUR-TOKEN"]
}
}
}
"YOUR-TOKEN" na swój rzeczywisty token odczytu Logfire.Uwaga: Cursor nie obsługuje pola env; użyj argumentu --read-token.
cline_mcp_settings.json.{
"mcpServers": {
"logfire": {
"command": "uvx",
"args": ["logfire-mcp"],
"env": {
"LOGFIRE_READ_TOKEN": "YOUR_TOKEN"
},
"disabled": false,
"autoApprove": []
}
}
}
"YOUR_TOKEN" na swój token odczytu Logfire.Zabezpieczanie kluczy API:
Tokeny są bezpieczne dzięki polu env w konfiguracji.
Brak instrukcji konfiguracji dla Windsurf.
Używanie MCP w FlowHunt
Aby zintegrować serwery MCP z przepływem FlowHunt, zacznij od dodania komponentu MCP do swojego flow i połącz go z agentem AI:

Kliknij komponent MCP, aby otworzyć panel konfiguracji. W sekcji konfiguracyjnej MCP systemu wklej dane swojego serwera MCP w tym formacie JSON:
{
"logfire": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po skonfigurowaniu agent AI może korzystać z tego MCP jako narzędzia ze wszystkimi jego funkcjonalnościami. Pamiętaj, by zamienić "logfire" na faktyczną nazwę swojego serwera MCP i podać własny adres URL serwera MCP.
| Sekcja | Dostępność | Szczegóły/Uwagi |
|---|---|---|
| Przegląd | ✅ | |
| Lista promptów | ⛔ | Brak udokumentowanych szablonów promptów. |
| Lista zasobów | ⛔ | Brak udokumentowanych zasobów. |
| Lista narzędzi | ✅ | 4 narzędzia udokumentowane: wyjątki, zapytania i dostęp do schematu. |
| Zabezpieczanie kluczy API | ✅ | Przykłady zmiennych środowiskowych i konfiguracji JSON. |
| Wsparcie sampling-u (mniej istotne) | ⛔ | Brak wzmianki o wsparciu sampling-u. |
Na podstawie powyższego, Logfire MCP Server to wyspecjalizowany, produkcyjny serwer MCP do obserwowalności, lecz bez dokumentacji dla szablonów promptów, zasobów, roots czy sampling-u. Znakomicie eksponuje ograniczony zestaw narzędzi telemetrycznych i debugujących. Ocena końcowa: 6/10 — znakomity do swojego zastosowania, lecz nie jest pełnym wzorcem referencyjnym MCP.
| Posiada LICENSE | ⛔ (Nie znaleziono pliku LICENSE) |
|---|---|
| Ma przynajmniej jedno narzędzie | ✅ |
| Liczba Forków | 9 |
| Liczba Gwiazdek | 77 |
Zintegruj Logfire MCP Server z FlowHunt, aby odblokować zapytania telemetryczne w czasie rzeczywistym, wgląd w wyjątki i niestandardowe raportowanie w przepływach opartych na AI.

Serwer Loki MCP łączy asystentów AI z Grafana Loki, umożliwiając płynne zapytania i analizę danych logów za pomocą Model Context Protocol. Umożliwia przepływy p...

Salesforce MCP Server łączy asystentów AI i duże modele językowe bezpośrednio z Salesforce, umożliwiając płynne zapytania, zarządzanie rekordami, pobieranie met...

Twilio MCP Server łączy asystentów AI z interfejsami API Twilio, umożliwiając automatyczne SMS-y, połączenia i zarządzanie zasobami w FlowHunt oraz innych przep...
Zgoda na Pliki Cookie
Używamy plików cookie, aby poprawić jakość przeglądania i analizować nasz ruch. See our privacy policy.