
Todos MCP 서버
Todos MCP 서버는 Model Context Protocol(MCP)을 지원하는 오픈 소스 할 일 목록 애플리케이션으로, AI 어시스턴트와 챗봇이 표준화된 API를 통해 프로그래밍 방식으로 작업을 관리할 수 있게 해줍니다. 개인정보 보호에 중점을 둔 로컬 저장소와 AI 기반 워크플...
단일 MCP 서버를 통해 모든 OpenAI-호환 챗 API에 쉽게 연결하여 FlowHunt 등에서 다양한 LLM 제공업체 워크플로우를 간소화하세요.
any-chat-completions-mcp MCP 서버는 AI 어시스턴트와 OpenAI, Perplexity, Groq, xAI, PyroPrompts 등과 같은 OpenAI SDK 호환 Chat Completion API 사이를 연결하는 다리 역할을 합니다. Model Context Protocol(MCP)을 준수함으로써 외부 LLM 제공업체를 개발 워크플로우에 매끄럽게 통합할 수 있습니다. 이 서버의 주요 기능은 챗 기반 질문을 설정된 AI 챗 제공업체로 전달하는 것으로, 개발자가 다양한 LLM을 선호하는 환경에서 도구로 활용할 수 있게 해줍니다. 이를 통해 제공업체 전환이나 LLM 활용 확장이 간편해지며, AI 기반 애플리케이션에서 유연성과 효율성을 높여줍니다.
레포지토리 또는 문서에 프롬프트 템플릿이 언급되어 있지 않습니다.
레포지토리나 README에 명시적인 MCP 리소스가 문서화되어 있지 않습니다.
레포지토리나 문서에 Windsurf에 대한 플랫폼별 안내가 제공되지 않습니다.
npx
가 설치되어 있는지 확인하세요.claude_desktop_config.json
을 편집하세요(MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
; Windows: %APPDATA%/Claude/claude_desktop_config.json
).mcpServers
객체 아래에 MCP 서버 설정을 추가하세요.env
객체에 입력하세요.JSON 예시:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "v1/chat/completions"
}
}
}
}
API 키 보안 관리(환경 변수 사용):
"env": {
"AI_CHAT_KEY": "YOUR_PROVIDER_KEY"
}
레포지토리나 문서에 Cursor에 대한 플랫폼별 안내가 제공되지 않습니다.
레포지토리나 문서에 Cline에 대한 플랫폼별 안내가 제공되지 않습니다.
FlowHunt에서 MCP 사용하기
FlowHunt 워크플로우에 MCP 서버를 통합하려면, 먼저 플로우에 MCP 컴포넌트를 추가하고 AI 에이전트에 연결하세요:
MCP 컴포넌트를 클릭해 설정 패널을 엽니다. 시스템 MCP 설정 영역에 아래와 같은 JSON 형식으로 MCP 서버 정보를 입력하세요:
{
"MCP-name": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
설정이 완료되면 AI 에이전트가 이 MCP를 도구로 사용하여 모든 기능과 역량을 활용할 수 있습니다. “MCP-name” 부분은 실제 MCP 서버 이름(예: “github-mcp”, “weather-api” 등)으로, URL은 자신의 MCP 서버 URL로 변경하는 것을 잊지 마세요.
섹션 | 제공 여부 | 상세/비고 |
---|---|---|
개요 | ✅ | README에서 목적 및 기능 설명 |
프롬프트 목록 | ⛔ | 프롬프트 템플릿 없음 |
리소스 목록 | ⛔ | 명시적 MCP 리소스 문서화 없음 |
도구 목록 | ✅ | README에 “chat” 도구 설명 |
API 키 보안 관리 | ✅ | 키 관리를 위한 JSON 내 “env” 사용 |
샘플링 지원(평가에 덜 중요) | ⛔ | 샘플링 기능 언급 없음 |
위 내용을 종합하면, any-chat-completions-mcp는 범용 OpenAI-호환 챗 API를 도구로 추가하기에 집중된, 단순하고 효율적인 MCP 서버입니다. 주요 강점은 단순성과 폭넓은 호환성이며, 리소스/프롬프트 추상화 기능은 부족합니다. 일상적인 LLM 통합에는 견고하나, 파워 유저는 더 많은 기능을 원할 수 있습니다. 전체적으로 일반 용도에서는 6/10 점수를 줄 수 있을 것 같습니다.
라이선스 보유 | ✅ (MIT) |
---|---|
도구 1개 이상 보유 | ✅ |
포크 수 | 17 |
스타 수 | 129 |
이것은 FlowHunt 또는 MCP 호환 클라이언트를 OpenAI, Perplexity, Groq, xAI, PyroPrompts 등 다양한 OpenAI SDK 호환 Chat Completion API와 연결해주는 MCP 서버입니다. 챗 기반 쿼리를 단일 도구와 설정으로 라우팅해줍니다.
LLM 통합의 일원화, 빠른 제공업체 전환, 데스크탑 AI 에이전트 구동, LLM 벤치마킹, 챗 기반 쿼리를 위한 안전한 API 게이트웨이 역할 등입니다.
환경 변수(예: API 키, base URL, 모델명)만 MCP 서버 설정에서 변경하면 됩니다. 코드 수정 없이 설정 변경 후 클라이언트를 재시작하면 됩니다.
네, 환경 변수를 통해 API 키를 관리하므로 자격 증명이 코드베이스에 남지 않아 보안이 강화됩니다.
'chat'이라는 단일 도구로, 챗 기반 메시지를 설정된 OpenAI-호환 API 엔드포인트로 전달합니다.
아니요, 이 서버는 챗 컴플리션에 집중되어 있으며 프롬프트 템플릿이나 추가 리소스 레이어는 제공하지 않습니다.
Todos MCP 서버는 Model Context Protocol(MCP)을 지원하는 오픈 소스 할 일 목록 애플리케이션으로, AI 어시스턴트와 챗봇이 표준화된 API를 통해 프로그래밍 방식으로 작업을 관리할 수 있게 해줍니다. 개인정보 보호에 중점을 둔 로컬 저장소와 AI 기반 워크플...
OpenAPI MCP 서버는 AI 어시스턴트가 OpenAPI 명세를 탐색하고 이해할 수 있도록 연결하여, 개발자와 LLM에게 직접 엔드포인트 실행 없이 상세한 API 컨텍스트, 요약, 엔드포인트 정보를 제공합니다....
Chat MCP는 Model Context Protocol(MCP)을 활용하여 다양한 대형 언어 모델(LLM)과 인터페이스하는 크로스 플랫폼 데스크톱 채팅 애플리케이션입니다. 이는 여러 LLM 백엔드의 테스트, 상호작용, 구성에 사용되는 통합적이고 미니멀한 인터페이스를 제공하여, MCP...