
DeepSeek MCP 서버
DeepSeek MCP 서버는 안전한 프록시 역할을 하여 DeepSeek의 고급 언어 모델을 Claude Desktop이나 FlowHunt와 같은 MCP 호환 애플리케이션에 연결해주며, 익명 API 사용, 워크플로 자동화, 중앙 집중식 관리를 가능하게 합니다....
Deepseek의 투명한 추론 및 체인 오브 쏘트 AI 출력을 클라우드와 로컬 배포 모두 지원하며 MCP 지원 어시스턴트에 도입하세요.
Deepseek Thinker MCP 서버는 Model Context Protocol(MCP) 제공자로서, Deepseek 모델의 추론 콘텐츠를 Claude Desktop과 같은 MCP 지원 AI 클라이언트에 전달합니다. 이 서버를 통해 AI 어시스턴트는 Deepseek의 사고 과정 및 추론 출력을 Deepseek API 서비스 또는 로컬 Ollama 서버를 통해 활용할 수 있습니다. 이 서버와 통합하면 개발자들은 클라우드 또는 로컬 추론 기능을 활용하여 AI 워크플로우에 집중된 추론 기능을 추가할 수 있습니다. 특히, 세부적인 추론 체인(Chain-of-Thought, CoT) 출력이 필요한 고급 개발, 디버깅, AI 에이전트 강화에 유용합니다.
저장소나 문서에 별도의 프롬프트 템플릿이 명시되어 있지 않습니다.
문서나 코드베이스에 명시적인 MCP 리소스가 없습니다.
originPrompt
(string) — 사용자의 원본 프롬프트.windsurf_config.json
)을 찾으세요.mcpServers
오브젝트에 추가하세요:{
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
claude_desktop_config.json
파일을 여세요.{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
모든 플랫폼에서 API 키와 민감한 설정 값은 env
섹션의 환경 변수로 제공해야 합니다. 예시:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
로컬 Ollama 모드를 사용할 경우, env
오브젝트에 USE_OLLAMA
를 "true"
로 설정하세요:
"env": {
"USE_OLLAMA": "true"
}
FlowHunt에서 MCP 서버를 워크플로우에 통합하려면, 먼저 MCP 컴포넌트를 플로우에 추가하고 AI 에이전트와 연결하세요:
MCP 컴포넌트를 클릭하여 설정 패널을 엽니다. 시스템 MCP 설정 섹션에서 아래 JSON 형식으로 MCP 서버 정보를 입력하세요:
{
"deepseek-thinker": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
구성이 완료되면, AI 에이전트가 MCP의 모든 기능을 도구로 사용할 수 있습니다. “deepseek-thinker"를 실제 MCP 서버 이름으로, URL을 올바르게 변경해 사용하세요.
섹션 | 지원 여부 | 세부사항/비고 |
---|---|---|
개요 | ✅ | |
프롬프트 목록 | ⛔ | 프롬프트 템플릿 문서화 없음 |
리소스 목록 | ⛔ | 명시적 MCP 리소스 없음 |
도구 목록 | ✅ | get-deepseek-thinker 도구 |
API 키 보안 | ✅ | 설정 내 환경 변수로 관리 |
샘플링 지원(평가에 중요하지 않음) | ⛔ | 언급 없음 |
아래 두 표를 바탕으로, Deepseek Thinker MCP 서버는 추론 통합에 특화된 도구를 제공하며, 설정이 간편하지만 상세 프롬프트 템플릿과 명시적 리소스 정의는 부족합니다. 프로젝트는 오픈 소스이고, 적당한 팔로워 수를 보유하며, 안전한 자격증명 처리를 지원합니다. MCP 서버로서의 완성도 및 유용성은 6/10 점수입니다.
라이선스 파일 존재 여부 | ⛔ (LICENSE 파일 없음) |
---|---|
도구 1개 이상 존재 | ✅ |
포크 수 | 12 |
스타 수 | 51 |
이는 Deepseek 모델 추론을 MCP 지원 AI 클라이언트에 제공하는 Model Context Protocol 서버로, 체인 오브 쏘트 출력과 투명한 모델 사고 방식을 통해 고급 AI 워크플로우 및 디버깅을 지원합니다.
'get-deepseek-thinker' 도구를 제공하며, Deepseek 모델로 추론을 수행하고 구조화된 추론 결과를 반환합니다.
네, Deepseek Thinker는 클라우드 기반 및 로컬(Ollama) 추론을 모두 지원합니다. 로컬 모드에서는 'USE_OLLAMA' 환경 변수를 'true'로 설정하세요.
API 키와 민감한 값은 MCP 서버 설정의 'env' 섹션에서 환경 변수로 저장해야 하며, 소스 파일에 하드코딩하지 않아야 합니다.
제한은 기반이 되는 Deepseek 모델 또는 API에 의해 결정되며, 초과 시 응답이 잘리거나 오류가 발생할 수 있으니 설정과 입력값을 적절히 조정하세요.
현재 Deepseek Thinker MCP 서버 문서에는 별도의 프롬프트 템플릿이나 추가 MCP 리소스가 제공되지 않습니다.
DeepSeek MCP 서버는 안전한 프록시 역할을 하여 DeepSeek의 고급 언어 모델을 Claude Desktop이나 FlowHunt와 같은 MCP 호환 애플리케이션에 연결해주며, 익명 API 사용, 워크플로 자동화, 중앙 집중식 관리를 가능하게 합니다....
DeepSeek MCP 서버는 DeepSeek의 첨단 언어 모델을 MCP 호환 애플리케이션과 통합하여, 안전하고 익명화된 API 접근을 제공하며 Claude Desktop, FlowHunt와 같은 도구에서 확장 가능하고 프라이버시를 보장하는 AI 워크플로우를 가능하게 합니다....
Think MCP 서버는 에이전트형 AI 워크플로우를 위한 구조적 추론 도구를 제공하여, 명시적 사고 로그, 정책 준수, 순차적 의사결정, 고급 비평 및 계획 기능을 지원합니다. Claude, FlowHunt 또는 기타 에이전트형 LLM과의 원활한 통합을 위해 설계되어 AI 에이전트의 ...