
Serwer Markitdown MCP
Serwer Markitdown MCP łączy asystentów AI z treściami markdown, umożliwiając automatyczną dokumentację, analizę treści i zarządzanie plikami markdown dla uspraw...

Połącz swoje przepływy AI z newsletterami Substack za pomocą mcp-writer-substack. Pobieraj artykuły, wyciągaj kluczowe informacje i automatyzuj badanie oraz kurację treści bezpośrednio w FlowHunt.
FlowHunt zapewnia dodatkową warstwę bezpieczeństwa między Twoimi systemami wewnętrznymi a narzędziami AI, dając Ci szczegółową kontrolę nad tym, które narzędzia są dostępne z Twoich serwerów MCP. Serwery MCP hostowane w naszej infrastrukturze można bezproblemowo zintegrować z chatbotem FlowHunt oraz popularnymi platformami AI, takimi jak ChatGPT, Claude i różne edytory AI.
mcp-writer-substack MCP Server działa jako most pomiędzy asystentami AI (np. Claude) a treściami Substack. Wykorzystując Model Context Protocol (MCP), ten serwer umożliwia klientom AI dostęp i korzystanie z treści newsletterów oraz artykułów Substack w ramach ich przepływów pracy. Zwiększa to możliwości asystentów AI, pozwalając im pobierać, podsumowywać i analizować publikacje Substack, co jest szczególnie przydatne w badaniach, kuracji treści czy automatycznej pomocy w pisaniu. Integracja usprawnia takie zadania jak pobieranie najnowszych artykułów, wyodrębnianie kluczowych informacji czy cytowanie treści Substack bezpośrednio w środowiskach AI, czyniąc workflowy bardziej efektywnymi i kontekstowymi.
W plikach repozytorium nie znaleziono jawnych szablonów promptów.
git clone https://github.com/jean-technologies/mcp-writer-substack.git
cd mcp-writer-substack
pip install -r requirements.txt
{
  "mcpServers": {
    "substack-writer": {
      "command": "python",
      "args": ["writer_tool.py"]
    }
  }
}
claude_desktop_config.example.json:{
  "mcpServers": {
    "substack-writer": {
      "command": "python",
      "args": ["writer_tool.py"]
    }
  }
}
{
  "mcpServers": {
    "substack-writer": {
      "command": "python",
      "args": ["writer_tool.py"]
    }
  }
}
{
  "mcpServers": {
    "substack-writer": {
      "command": "python",
      "args": ["writer_tool.py"]
    }
  }
}
Aby zabezpieczyć klucze API lub inne sekrety, użyj zmiennych środowiskowych w konfiguracji. Przykład:
{
  "mcpServers": {
    "substack-writer": {
      "command": "python",
      "args": ["writer_tool.py"],
      "env": {
        "SUBSTACK_API_KEY": "${SUBSTACK_API_KEY}"
      },
      "inputs": {
        "newsletter_url": "https://yournewsletter.substack.com"
      }
    }
  }
}
Ustaw swoje zmienne środowiskowe bezpiecznie w systemie operacyjnym lub środowisku wdrożeniowym.
Używanie MCP w FlowHunt
Aby zintegrować serwery MCP z przepływem pracy w FlowHunt, zacznij od dodania komponentu MCP do swojego flow i połącz go z agentem AI:
Kliknij komponent MCP, aby otworzyć panel konfiguracji. W sekcji konfiguracji systemowej MCP wprowadź dane serwera MCP w następującym formacie JSON:
{
  "substack-writer": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}
Po skonfigurowaniu agent AI będzie mógł korzystać z tego MCP jako narzędzia ze wszystkimi jego funkcjami i możliwościami. Pamiętaj, aby zmienić “substack-writer” na faktyczną nazwę swojego serwera MCP oraz zastąpić URL własnym adresem MCP.
| Sekcja | Dostępność | Szczegóły/Uwagi | 
|---|---|---|
| Podsumowanie | ✅ | Obecne w README i opisie repozytorium | 
| Lista promptów | ⛔ | Nie znaleziono szablonów promptów | 
| Lista zasobów | ✅ | Artykuły Substack, metadane, podsumowania | 
| Lista narzędzi | ✅ | writer_tool.py udostępnia narzędzia dostępu | 
| Zabezpieczenie kluczy API | ✅ | Przykład konfiguracji obejmuje zmienne środowiskowe | 
| Wsparcie próbkowania (mniej istotne w ocenie) | ⛔ | Nie wspomniano | 
Na podstawie powyższej tabeli mcp-writer-substack to wyspecjalizowany serwer MCP z jasno zdefiniowanymi zasobami i narzędziami, ale bez jawnych szablonów promptów i informacji o próbkowaniu/źródłach. Jest prosty w konfiguracji i cenny dla workflowów opartych na treści. Moja ocena tego serwera MCP to 6/10 ze względu na skoncentrowany zakres i dobrą dokumentację, ale brak niektórych zaawansowanych funkcji MCP.
| Ma licencję | ⛔ | 
|---|---|
| Ma przynajmniej jedno narzędzie | ✅ | 
| Liczba forków | 0 | 
| Liczba gwiazdek | 9 | 
Działa jako most między asystentami AI (np. Claude) a treściami Substack, umożliwiając klientom AI dostęp, pobieranie i podsumowywanie zawartości newsletterów do badań, kuracji lub automatycznej pomocy w pisaniu.
Udostępnia artykuły Substack, metadane newsletterów (tytuły, autorów, daty publikacji) oraz podsumowania artykułów do wykorzystania jako kontekst dla LLM.
Główne zastosowania to badanie i podsumowanie treści, monitorowanie newsletterów, kuracja treści, ekstrakcja źródeł oraz automatyczna pomoc w pisaniu z wykorzystaniem artykułów Substack.
Użyj zmiennych środowiskowych w konfiguracji. Na przykład ustaw SUBSTACK_API_KEY jako zmienną środowiskową i odwołaj się do niej w konfiguracji serwera MCP w celu bezpiecznego zarządzania.
Nie są wymagane ani dostarczane żadne szablony promptów. Serwer udostępnia narzędzia do bezpośredniego dostępu i podsumowania treści Substack.
Dodaj komponent MCP do swojego flow, skonfiguruj go z danymi serwera i połącz z agentem AI. Możesz wtedy pobierać i wykorzystywać treści Substack bezpośrednio w przepływach AI.
Zintegruj newslettery Substack ze swoimi przepływami AI dzięki mcp-writer-substack. Usprawnij odkrywanie treści, ich podsumowanie i kurację w FlowHunt.
Serwer Markitdown MCP łączy asystentów AI z treściami markdown, umożliwiając automatyczną dokumentację, analizę treści i zarządzanie plikami markdown dla uspraw...
Office-Word MCP Server łączy asystentów AI z dokumentami Microsoft Word, umożliwiając automatyczne tworzenie, edycję, formatowanie i ekstrakcję treści w intelig...
Serwer Model Context Protocol (MCP) łączy asystentów AI z zewnętrznymi źródłami danych, API i usługami, umożliwiając płynną integrację złożonych przepływów prac...
Zgoda na Pliki Cookie
Używamy plików cookie, aby poprawić jakość przeglądania i analizować nasz ruch. See our privacy policy.


