
DeepSeek MCP Server
DeepSeek MCP Server fungerer som en sikker proxy, der forbinder DeepSeeks avancerede sprogmodeller med MCP-kompatible applikationer som Claude Desktop eller Flo...
Bring Deepseeks transparente ræsonnement og chain-of-thought AI-outputs ind i dine MCP-understøttede assistenter med understøttelse af både cloud og lokale installationer.
Deepseek Thinker MCP Server fungerer som en Model Context Protocol (MCP)-udbyder, der leverer Deepseek-modellens ræsonnement til MCP-understøttede AI-klienter såsom Claude Desktop. Den gør det muligt for AI-assistenter at få adgang til Deepseeks tankegang og ræsonnement enten via Deepseek API-tjenesten eller fra en lokal Ollama-server. Ved at integrere med denne server kan udviklere forbedre deres AI-arbejdsgange med fokuseret ræsonnement ved hjælp af enten cloud- eller lokal inferens. Denne server er særligt nyttig i scenarier, hvor detaljerede ræsonnementskæder eller chain-of-thought (CoT)-outputs er nødvendige for at informere efterfølgende AI-opgaver, hvilket gør den værdifuld til avanceret udvikling, fejlfinding og berigelse af AI-agenter.
Ingen eksplicitte promptskabeloner nævnt i repository eller dokumentation.
Ingen eksplicit MCP-ressourcer beskrevet i dokumentationen eller kodebasen.
originPrompt
(string) — Brugerens oprindelige prompt.windsurf_config.json
).mcpServers
-objektet:{
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
claude_desktop_config.json
.{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
For alle platforme bør API-nøgler og følsomme konfigurationsværdier angives som miljøvariabler i env
-sektionen. Eksempel:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
For lokal Ollama-tilstand skal USE_OLLAMA
sættes til "true"
i env
-objektet:
"env": {
"USE_OLLAMA": "true"
}
Brug af MCP i FlowHunt
For at integrere MCP-servere i din FlowHunt-arbejdsgang skal du starte med at tilføje MCP-komponenten til dit flow og forbinde den til din AI-agent:
Klik på MCP-komponenten for at åbne konfigurationspanelet. I system-MCP-konfigurationssektionen indsættes dine MCP-serveroplysninger med dette JSON-format:
{
"deepseek-thinker": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Når det er konfigureret, kan AI-agenten nu bruge denne MCP som et værktøj med adgang til alle dens funktioner og kapaciteter. Husk at ændre “deepseek-thinker” til navnet på din faktiske MCP-server og angive den korrekte URL.
Sektion | Tilgængelighed | Detaljer/noter |
---|---|---|
Oversigt | ✅ | |
Liste over prompts | ⛔ | Ingen promptskabeloner dokumenteret |
Liste over ressourcer | ⛔ | Ingen eksplicitte MCP-ressourcer fundet |
Liste over værktøjer | ✅ | get-deepseek-thinker-værktøj |
Sikring af API-nøgler | ✅ | Miljøvariabler i konfiguration |
Sampling-understøttelse (mindre vigtigt) | ⛔ | Ikke nævnt |
Ud fra de to tabeller nedenfor tilbyder Deepseek Thinker MCP Server et fokuseret værktøj til ræsonnementintegration, er nem at sætte op, men mangler detaljerede promptskabeloner og eksplicitte ressourcebeskrivelser. Projektet er open source, har en moderat følgerskare og understøtter sikker håndtering af credentials. Den scorer 6/10 for samlet fuldstændighed og nytte som MCP-server.
Har en LICENSE-fil | ⛔ (Ingen LICENSE-fil fundet) |
---|---|
Mindst ét værktøj | ✅ |
Antal forks | 12 |
Antal stjerner | 51 |
Det er en Model Context Protocol-server, der bringer Deepseek-modellens ræsonnement til MCP-understøttede AI-klienter og tilbyder chain-of-thought-outputs og transparent modeltænkning til avancerede AI-arbejdsgange og fejlfinding.
Den tilbyder værktøjet 'get-deepseek-thinker' til at udføre ræsonnement med Deepseek-modellen og returnere strukturerede ræsonnement-outputs.
Ja, Deepseek Thinker understøtter både cloud-baseret og lokal (Ollama) inferens. Sæt miljøvariablen 'USE_OLLAMA' til 'true' for lokal tilstand.
API-nøgler og følsomme værdier skal gemmes i 'env'-sektionen af din MCP-serverkonfiguration som miljøvariabler og ikke hardcodes i kildefiler.
Grænserne bestemmes af den underliggende Deepseek-model eller API; overskridelse kan forkorte svar eller give fejl, så juster din konfiguration og input derefter.
Der gives ingen eksplicitte promptskabeloner eller ekstra MCP-ressourcer som en del af den nuværende Deepseek Thinker MCP Server-dokumentation.
Integrér Deepseek Thinker MCP Server for at give dine AI-agenter detaljerede ræsonnementsevner og styrk udviklingsarbejdsgange.
DeepSeek MCP Server fungerer som en sikker proxy, der forbinder DeepSeeks avancerede sprogmodeller med MCP-kompatible applikationer som Claude Desktop eller Flo...
DeepSeek MCP Server integrerer DeepSeeks avancerede sprogmodeller med MCP-kompatible applikationer og giver sikker, anonymiseret API-adgang samt muliggør skaler...
Think MCP Server tilbyder et struktureret ræsonnementsværktøj til agentiske AI-arbejdsgange, hvilket muliggør eksplicit tankelogning, overholdelse af politikker...