Deepseek Thinker MCP Server
Traga o raciocínio transparente e as saídas de cadeia de pensamento da Deepseek para seus assistentes compatíveis com MCP com suporte para implantações em nuvem e locais.

O que faz o servidor MCP “Deepseek Thinker”?
O Deepseek Thinker MCP Server atua como um provedor Model Context Protocol (MCP), entregando conteúdo de raciocínio do modelo Deepseek para clientes de IA compatíveis com MCP, como o Claude Desktop. Ele permite que assistentes de IA acessem os processos de pensamento e saídas de raciocínio do Deepseek, seja por meio do serviço de API Deepseek ou de um servidor Ollama local. Ao integrar este servidor, desenvolvedores podem aprimorar seus fluxos de trabalho de IA com raciocínio focado, aproveitando capacidades de inferência em nuvem ou local. Este servidor é especialmente útil em cenários onde cadeias de raciocínio detalhadas ou saídas de cadeia de pensamento (CoT) são necessárias para informar tarefas de IA subsequentes, tornando-o valioso para desenvolvimento avançado, depuração e enriquecimento de agentes de IA.
Lista de Prompts
Não há modelos de prompt explícitos mencionados no repositório ou na documentação.
Lista de Recursos
Não há recursos MCP explícitos detalhados na documentação ou no código.
Lista de Ferramentas
- get-deepseek-thinker
- Descrição: Realiza raciocínio usando o modelo Deepseek.
- Parâmetro de entrada:
originPrompt
(string) — O prompt original do usuário. - Retorno: Resposta textual estruturada contendo o processo de raciocínio.
Casos de Uso deste Servidor MCP
- Aprimoramento do Raciocínio de IA
- Aproveite as saídas detalhadas de cadeia de pensamento da Deepseek para aumentar as respostas dos clientes de IA e fornecer etapas de raciocínio transparentes.
- Integração com Claude Desktop
- Conecte-se facilmente ao Claude Desktop ou plataformas de IA similares para habilitar capacidades avançadas de raciocínio via MCP.
- Modos Duplos de Inferência
- Escolha entre inferência em nuvem (API OpenAI) ou local (Ollama) para atender a necessidades de privacidade, custo ou latência.
- Depuração & Análise para Desenvolvedores
- Use o servidor para expor e analisar o pensamento do modelo para pesquisa, depuração e estudos de interpretabilidade.
- Implantação Flexível
- Opere o servidor localmente ou em ambientes de nuvem para diferentes requisitos de fluxo de trabalho.
Como configurar
Windsurf
- Pré-requisitos: Certifique-se de que Node.js e npx estão instalados em seu sistema.
- Arquivo de Configuração: Localize seu arquivo de configuração do Windsurf (ex:
windsurf_config.json
). - Adicione o Deepseek Thinker MCP Server: Insira o seguinte trecho JSON no objeto
mcpServers
:{ "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "API_KEY": "<Sua API Key>", "BASE_URL": "<Seu Base URL>" } } }
- Salve e Reinicie: Salve as alterações e reinicie o Windsurf.
- Verifique: Confira a integração do servidor MCP no cliente Windsurf.
Claude
- Pré-requisitos: Node.js e npx instalados.
- Edite a Configuração: Abra
claude_desktop_config.json
. - Adicione o Servidor MCP:
{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "API_KEY": "<Sua API Key>", "BASE_URL": "<Seu Base URL>" } } } }
- Salve a Configuração: Escreva as alterações e reinicie o Claude Desktop.
- Verificação: Confirme que o Deepseek Thinker está disponível em sua lista de ferramentas MCP.
Cursor
- Certifique-se dos Pré-requisitos: Node.js e npx devem estar instalados.
- Localize a Configuração do Cursor: Abra seu arquivo de configuração MCP do Cursor.
- Insira os Detalhes do Servidor MCP:
{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "API_KEY": "<Sua API Key>", "BASE_URL": "<Seu Base URL>" } } } }
- Salve & Reinicie: Aplique as alterações e reinicie o Cursor.
- Cheque a Integração: Valide que o Deepseek Thinker está operacional.
Cline
- Pré-requisitos: Certifique-se que Node.js e npx estão prontos.
- Edite a Configuração do Cline: Abra o arquivo de configuração do Cline.
- Adicione o Bloco do Servidor MCP:
{ "mcpServers": { "deepseek-thinker": { "command": "npx", "args": [ "-y", "deepseek-thinker-mcp" ], "env": { "API_KEY": "<Sua API Key>", "BASE_URL": "<Seu Base URL>" } } } }
- Salve e Reinicie: Salve a configuração e reinicie o Cline.
- Verifique a Funcionalidade: Certifique-se de que o servidor está listado e acessível.
Nota: Protegendo as Chaves de API
Para todas as plataformas, chaves de API e valores sensíveis de configuração devem ser fornecidos usando variáveis de ambiente na seção env
. Exemplo:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Sua API Key>",
"BASE_URL": "<Seu Base URL>"
}
}
}
}
Para modo local Ollama, defina USE_OLLAMA
como "true"
no objeto env
:
"env": {
"USE_OLLAMA": "true"
}
Como usar este MCP em fluxos
Usando MCP no FlowHunt
Para integrar servidores MCP ao seu fluxo de trabalho no FlowHunt, comece adicionando o componente MCP ao seu fluxo e conectando-o ao seu agente de IA:

Clique no componente MCP para abrir o painel de configuração. Na seção de configuração MCP do sistema, insira os detalhes do seu servidor MCP usando este formato JSON:
{
"deepseek-thinker": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Depois de configurado, o agente de IA poderá usar este MCP como uma ferramenta, com acesso a todas as suas funções e capacidades. Lembre-se de trocar “deepseek-thinker” pelo nome real do seu servidor MCP e definir a URL correta.
Visão Geral
Seção | Disponibilidade | Detalhes/Notas |
---|---|---|
Visão Geral | ✅ | |
Lista de Prompts | ⛔ | Nenhum modelo de prompt documentado |
Lista de Recursos | ⛔ | Nenhum recurso MCP explícito encontrado |
Lista de Ferramentas | ✅ | Ferramenta get-deepseek-thinker |
Proteção de Chaves de API | ✅ | Variáveis de ambiente na configuração |
Suporte a Sampling (menos importante) | ⛔ | Não mencionado |
Com base nas duas tabelas abaixo, o Deepseek Thinker MCP Server oferece uma ferramenta focada para integração de raciocínio, é fácil de configurar, mas carece de modelos de prompt detalhados e definições explícitas de recursos. O projeto é open source, possui um seguimento moderado e suporta manuseio seguro de credenciais. Ele recebe uma pontuação 6/10 para completude e utilidade geral como servidor MCP.
Pontuação MCP
Possui LICENSE | ⛔ (Nenhum arquivo LICENSE detectado) |
---|---|
Possui ao menos uma ferramenta | ✅ |
Número de Forks | 12 |
Número de Estrelas | 51 |
Perguntas frequentes
- O que é o Deepseek Thinker MCP Server?
É um servidor Model Context Protocol que traz o raciocínio do modelo Deepseek para clientes de IA compatíveis com MCP, oferecendo saídas de cadeia de pensamento e pensamento transparente do modelo para fluxos de trabalho de IA avançados e depuração.
- Quais ferramentas o Deepseek Thinker MCP Server fornece?
Ele oferece a ferramenta 'get-deepseek-thinker' para realizar raciocínio com o modelo Deepseek e retornar saídas estruturadas de raciocínio.
- Posso usar o Deepseek Thinker com modelos de IA locais?
Sim, o Deepseek Thinker suporta inferência baseada em nuvem e local (Ollama). Defina a variável de ambiente 'USE_OLLAMA' como 'true' para o modo local.
- Como forneço as chaves de API com segurança?
As chaves de API e valores sensíveis devem ser armazenados na seção 'env' da configuração do seu servidor MCP como variáveis de ambiente e não hardcoded em arquivos fonte.
- O que acontece se eu exceder os limites de memória ou tokens?
Os limites são determinados pelo modelo Deepseek ou API subjacente; ao excedê-los, as respostas podem ser truncadas ou causar erros, então ajuste sua configuração e entradas conforme necessário.
- Existem modelos de prompt ou recursos MCP adicionais?
Não há modelos de prompt explícitos ou recursos MCP extras fornecidos como parte da documentação atual do Deepseek Thinker MCP Server.
Aprimore sua IA com o raciocínio Deepseek
Integre o Deepseek Thinker MCP Server para oferecer aos seus agentes de IA capacidades detalhadas de raciocínio e impulsionar fluxos de desenvolvimento.