
Serper MCP Server
Serper MCP Server łączy asystentów AI z wyszukiwarką Google za pośrednictwem API Serper, umożliwiając natychmiastowe wyszukiwanie w sieci, obrazów, wideo, wiado...
Daj swoim agentom AI bezpośredni dostęp do śladów i metryk Twojej aplikacji, by szybko debugować, śledzić wyjątki i analizować telemetrię w FlowHunt dzięki Logfire MCP Server.
Logfire MCP Server to serwer Model Context Protocol (MCP), który pozwala asystentom AI i LLM-om na dostęp, pobieranie i analizę danych telemetrycznych wysyłanych do Logfire przez standard OpenTelemetry. Po podłączeniu swojego projektu Logfire, serwer ten umożliwia narzędziom i agentom opartym o AI wykonywanie zapytań do rozproszonych śladów, analizę wzorców wyjątków oraz uruchamianie własnych zapytań SQL na metrykach i śladach Twojej aplikacji za pomocą API Logfire. Ta integracja umożliwia szybkie rozwiązywanie problemów, obserwowalność i automatyzację typowych zadań analizy telemetrii, zapewniając programistom usprawnione przepływy pracy do debugowania, monitorowania i generowania wglądów bezpośrednio z ich środowisk deweloperskich lub przez agentów wspieranych przez AI.
W repozytorium nie udokumentowano żadnych szablonów promptów.
W repozytorium nie udokumentowano żadnych jawnych zasobów (jako zasoby MCP).
find_exceptions
Pobiera liczbę wyjątków ze śladów, pogrupowaną według plików, w określonym przedziale czasu.
find_exceptions_in_file
Zapewnia szczegółowe informacje o śladach dotyczących wyjątków występujących w określonym pliku w danym przedziale czasowym.
arbitrary_query
Wykonuje własne zapytania SQL na śladach i metrykach OpenTelemetry, umożliwiając elastyczną eksplorację danych.
get_logfire_records_schema
Zwraca schemat OpenTelemetry, co pozwala użytkownikom tworzyć bardziej precyzyjne własne zapytania.
Monitorowanie i analiza wyjątków
Programiści mogą szybko zidentyfikować, które pliki generują najwięcej wyjątków, wychwycić trendy i skoncentrować wysiłki debugowania.
Analiza przyczyn źródłowych
Zagłębiając się w szczegóły wyjątków w konkretnym pliku, zespoły mogą szybciej zidentyfikować i rozwiązać krytyczne problemy.
Własne raportowanie telemetryczne
Możliwość uruchamiania dowolnych zapytań SQL pozwala zespołom generować niestandardowe raporty i dashboardy dopasowane do ich potrzeb.
Eksploracja schematu
Dzięki dostępowi do schematu OpenTelemetry, programiści mogą lepiej zrozumieć dostępne pola danych, by optymalizować własne zapytania i integracje.
Brak instrukcji konfiguracji dla Windsurf.
{
"command": ["uvx"],
"args": ["logfire-mcp"],
"type": "stdio",
"env": {
"LOGFIRE_READ_TOKEN": "YOUR_TOKEN"
}
}
"YOUR_TOKEN"
na swój rzeczywisty token odczytu Logfire.Zabezpieczanie kluczy API:
Przechowuj swój token w sekcji env
, jak powyżej, aby nie podawać go w argumentach i nie umieszczać w systemie kontroli wersji.
uv
..cursor/mcp.json
w katalogu głównym projektu.{
"mcpServers": {
"logfire": {
"command": "uvx",
"args": ["logfire-mcp", "--read-token=YOUR-TOKEN"]
}
}
}
"YOUR-TOKEN"
na swój rzeczywisty token odczytu Logfire.Uwaga: Cursor nie obsługuje pola env
; użyj argumentu --read-token
.
cline_mcp_settings.json
.{
"mcpServers": {
"logfire": {
"command": "uvx",
"args": ["logfire-mcp"],
"env": {
"LOGFIRE_READ_TOKEN": "YOUR_TOKEN"
},
"disabled": false,
"autoApprove": []
}
}
}
"YOUR_TOKEN"
na swój token odczytu Logfire.Zabezpieczanie kluczy API:
Tokeny są bezpieczne dzięki polu env
w konfiguracji.
Brak instrukcji konfiguracji dla Windsurf.
Używanie MCP w FlowHunt
Aby zintegrować serwery MCP z przepływem FlowHunt, zacznij od dodania komponentu MCP do swojego flow i połącz go z agentem AI:
Kliknij komponent MCP, aby otworzyć panel konfiguracji. W sekcji konfiguracyjnej MCP systemu wklej dane swojego serwera MCP w tym formacie JSON:
{
"logfire": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po skonfigurowaniu agent AI może korzystać z tego MCP jako narzędzia ze wszystkimi jego funkcjonalnościami. Pamiętaj, by zamienić "logfire"
na faktyczną nazwę swojego serwera MCP i podać własny adres URL serwera MCP.
Sekcja | Dostępność | Szczegóły/Uwagi |
---|---|---|
Przegląd | ✅ | |
Lista promptów | ⛔ | Brak udokumentowanych szablonów promptów. |
Lista zasobów | ⛔ | Brak udokumentowanych zasobów. |
Lista narzędzi | ✅ | 4 narzędzia udokumentowane: wyjątki, zapytania i dostęp do schematu. |
Zabezpieczanie kluczy API | ✅ | Przykłady zmiennych środowiskowych i konfiguracji JSON. |
Wsparcie sampling-u (mniej istotne) | ⛔ | Brak wzmianki o wsparciu sampling-u. |
Na podstawie powyższego, Logfire MCP Server to wyspecjalizowany, produkcyjny serwer MCP do obserwowalności, lecz bez dokumentacji dla szablonów promptów, zasobów, roots czy sampling-u. Znakomicie eksponuje ograniczony zestaw narzędzi telemetrycznych i debugujących. Ocena końcowa: 6/10 — znakomity do swojego zastosowania, lecz nie jest pełnym wzorcem referencyjnym MCP.
Posiada LICENSE | ⛔ (Nie znaleziono pliku LICENSE) |
---|---|
Ma przynajmniej jedno narzędzie | ✅ |
Liczba Forków | 9 |
Liczba Gwiazdek | 77 |
Logfire MCP Server umożliwia agentom AI i LLM-om dostęp i analizę danych telemetrycznych (śladów, metryk, wyjątków) zbieranych przez OpenTelemetry, korzystając z API Logfire do obserwowalności i rozwiązywania problemów w czasie rzeczywistym.
Logfire MCP udostępnia narzędzia do zliczania i analizy wyjątków (find_exceptions, find_exceptions_in_file), własne zapytania SQL nad telemetrią (arbitrary_query) oraz wykrywanie schematu (get_logfire_records_schema).
Przechowuj swój token odczytu Logfire w zmiennych środowiskowych (env w konfiguracji) dla Claude i Cline oraz jako argument CLI dla Cursor. Unikaj umieszczania tokenów w plikach kontrolowanych przez system kontroli wersji.
Typowe zastosowania to monitorowanie wyjątków, analiza przyczyn, własne raportowanie telemetryczne oraz eksploracja schematu — wszystko dostępne dla agentów AI w FlowHunt przez integrację MCP.
Dodaj komponent MCP w swoim flow FlowHunt, skonfiguruj go z danymi serwera Logfire MCP, a Twój agent AI będzie mógł wykonywać zapytania i analizy na danych telemetrycznych Twojej aplikacji.
Zintegruj Logfire MCP Server z FlowHunt, aby odblokować zapytania telemetryczne w czasie rzeczywistym, wgląd w wyjątki i niestandardowe raportowanie w przepływach opartych na AI.
Serper MCP Server łączy asystentów AI z wyszukiwarką Google za pośrednictwem API Serper, umożliwiając natychmiastowe wyszukiwanie w sieci, obrazów, wideo, wiado...
Kubernetes MCP Server łączy asystentów AI z klastrami Kubernetes/OpenShift, umożliwiając programistyczne zarządzanie zasobami, operacje na podach oraz automatyz...
BigQuery MCP Server umożliwia bezpieczny, tylko do odczytu dostęp do zbiorów danych BigQuery dla dużych modeli językowych (LLM), pozwalając agentom AI i użytkow...