
DeepSeek MCP Server
DeepSeek MCP Server funguje jako bezpečný proxy server, který propojuje pokročilé jazykové modely DeepSeek s aplikacemi kompatibilními s MCP, jako jsou Claude D...
Přineste transparentní uvažování a výstupy AI řetězce myšlenek Deepseek do vašich MCP-podporovaných asistentů s podporou cloudového i lokálního nasazení.
Deepseek Thinker MCP Server funguje jako poskytovatel Model Context Protocol (MCP), který dodává obsah uvažování modelu Deepseek do MCP-podporovaných AI klientů, jako je Claude Desktop. Umožňuje AI asistentům přistupovat k myšlenkovým procesům a výstupům uvažování Deepseek buď přes API službu Deepseek, nebo z lokálního serveru Ollama. Integrací tohoto serveru mohou vývojáři vylepšit své AI workflowy zaměřeným uvažováním, a to jak pomocí cloudové, tak lokální inference. Tento server je zvláště užitečný ve scénářích, kde jsou požadovány detailní řetězce uvažování (chain-of-thought, CoT) pro následné AI úlohy, a je tak cenný pro pokročilý vývoj, ladění i obohacení AI agentů.
V repozitáři ani dokumentaci nejsou uvedeny žádné explicitní šablony promptů.
V dokumentaci ani kódu nejsou detailně popsány žádné explicitní MCP zdroje.
originPrompt
(string) — původní prompt uživatele.windsurf_config.json
).mcpServers
:{
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
claude_desktop_config.json
.{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Pro všechny platformy by měly být API klíče a citlivé konfigurační hodnoty zadávány pomocí proměnných prostředí v sekci env
. Příklad:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Pro lokální režim Ollama nastavte v objektu env
hodnotu USE_OLLAMA
na "true"
:
"env": {
"USE_OLLAMA": "true"
}
Použití MCP ve FlowHunt
Pro integraci MCP serverů do vašeho workflowu ve FlowHunt začněte přidáním MCP komponenty do vašeho flow a propojením s AI agentem:
Klikněte na komponent MCP pro otevření konfiguračního panelu. V sekci systémové MCP konfigurace vložte detaily vašeho MCP serveru v tomto JSON formátu:
{
"deepseek-thinker": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po konfiguraci bude AI agent schopen tento MCP používat jako nástroj s přístupem ke všem jeho funkcím a možnostem. Nezapomeňte změnit “deepseek-thinker” na skutečný název vašeho MCP serveru a nastavit správnou URL.
Sekce | Dostupnost | Detaily/Poznámky |
---|---|---|
Přehled | ✅ | |
Seznam promptů | ⛔ | Žádné šablony promptů nejsou zdokumentovány |
Seznam zdrojů | ⛔ | Žádné explicitní MCP zdroje nenalezeny |
Seznam nástrojů | ✅ | get-deepseek-thinker nástroj |
Zabezpečení API klíčů | ✅ | Proměnné prostředí v konfiguraci |
Podpora samplingu (méně relevantní v hodnocení) | ⛔ | Není zmíněno |
Na základě dvou tabulek níže poskytuje Deepseek Thinker MCP Server zaměřený nástroj pro integraci uvažování, je snadno nastavitelný, ale postrádá detailní šablony promptů a explicitní definice zdrojů. Projekt je open source, má mírné množství sledujících a podporuje bezpečné nakládání s přihlašovacími údaji. Celkově dosahuje skóre 6/10 za úplnost a užitečnost jako MCP server.
Má LICENSE | ⛔ (Soubor LICENSE nebyl detekován) |
---|---|
Má alespoň jeden nástroj | ✅ |
Počet Forků | 12 |
Počet Stars | 51 |
Je to server Model Context Protocol, který přináší uvažování modelu Deepseek do MCP-podporovaných AI klientů a nabízí výstupy řetězce myšlenek a transparentní myšlení modelu pro pokročilé AI workflowy a ladění.
Nabízí nástroj 'get-deepseek-thinker' pro provádění uvažování pomocí modelu Deepseek a vracení strukturovaných výstupů uvažování.
Ano, Deepseek Thinker podporuje jak cloudové, tak lokální (Ollama) inference. Pro lokální režim nastavte proměnnou prostředí 'USE_OLLAMA' na 'true'.
API klíče a citlivé hodnoty by měly být ukládány v sekci 'env' vaší MCP konfigurace jako proměnné prostředí, nikoli natvrdo ve zdrojových souborech.
Limity jsou určeny základním modelem Deepseek nebo API; jejich překročení může zkrátit odpovědi nebo způsobit chyby, proto upravte konfiguraci a vstupy dle potřeby.
Žádné explicitní šablony promptů ani další MCP zdroje nejsou aktuálně součástí dokumentace Deepseek Thinker MCP Serveru.
Integrujte Deepseek Thinker MCP Server a poskytněte svým AI agentům detailní schopnosti uvažování a zrychlete vývojářské workflowy.
DeepSeek MCP Server funguje jako bezpečný proxy server, který propojuje pokročilé jazykové modely DeepSeek s aplikacemi kompatibilními s MCP, jako jsou Claude D...
DeepSeek MCP Server integruje pokročilé jazykové modely DeepSeek s aplikacemi kompatibilními s MCP, poskytuje bezpečný, anonymizovaný přístup přes API a umožňuj...
Think MCP Server poskytuje strukturovaný nástroj pro uvažování pro agentní AI workflow, umožňuje explicitní zaznamenávání myšlenek, dodržování politik, sekvenčn...