
any-chat-completions-mcp MCP 서버
any-chat-completions-mcp MCP 서버는 FlowHunt 및 기타 도구를 OpenAI SDK 호환 Chat Completion API와 연결합니다. OpenAI, Perplexity, Groq, xAI, PyroPrompts 등 다양한 LLM 제공업체를 단일하고 간단한...
Langfuse MCP 서버를 FlowHunt와 연동하여 Langfuse에서 AI 프롬프트를 중앙에서 관리, 조회, 컴파일하고, 동적이고 표준화된 LLM 워크플로우를 구현하세요.
Langfuse MCP 서버는 Langfuse 프롬프트 관리를 위해 설계된 Model Context Protocol(MCP) 서버입니다. 이 서버를 통해 AI 어시스턴트와 개발자는 표준화된 MCP 인터페이스를 사용하여 Langfuse에 저장된 프롬프트를 접근하고 관리할 수 있습니다. MCP를 통해 AI 클라이언트가 외부 프롬프트 저장소와 연결되므로, 프롬프트의 조회, 목록화, 컴파일이 간소화되어 대형 언어 모델(LLM) 개발 워크플로우가 향상됩니다. Langfuse MCP 서버는 프롬프트 탐색, 조회, 컴파일을 지원하며, 동적 프롬프트 선택과 변수 치환 등의 작업이 가능합니다. 이 통합을 통해 프롬프트 관리를 단순화하고, LLM과 프롬프트 데이터베이스 간의 상호작용을 표준화하여, 팀 또는 플랫폼 전반에 일관된 프롬프트 사용 및 공유가 필요한 환경에서 특히 유용합니다.
prompts/list
: Langfuse 저장소의 모든 사용 가능한 프롬프트를 목록화합니다. 선택적 커서 기반 페이지네이션을 지원하며, 프롬프트 이름과 필요 인수를 제공합니다. 모든 인수는 기본적으로 선택 사항입니다.prompts/get
: 지정한 이름의 프롬프트를 조회해, 제공된 변수로 컴파일합니다. 텍스트 및 챗 프롬프트 모두를 지원하며 MCP 프롬프트 오브젝트로 변환합니다.production
태그가 지정된 모든 프롬프트를 AI 클라이언트가 탐색·조회할 수 있도록 노출합니다.get-prompts
: 사용 가능한 프롬프트와 인수 목록을 반환합니다. 선택적 cursor
매개변수로 페이지네이션을 지원하며, 프롬프트 이름과 인수 리스트를 반환합니다.get-prompt
: 특정 프롬프트를 조회 및 컴파일합니다. name
매개변수가 필수이고, 프롬프트에 채울 변수를 담은 JSON 오브젝트는 선택적으로 입력 가능합니다.저장소에 Windsurf 관련 별도 안내는 없습니다.
npm install
npm run build
claude_desktop_config.json
파일에서 MCP 서버를 추가하세요:{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "your-public-key",
"LANGFUSE_SECRET_KEY": "your-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
npm install
npm run build
LANGFUSE_PUBLIC_KEY="your-public-key" LANGFUSE_SECRET_KEY="your-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
저장소에 Cline 관련 별도 안내는 없습니다.
API 키는 환경 변수로 보관하는 것이 안전합니다. 다음은 MCP 서버 설정 예시 JSON입니다:
{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "your-public-key",
"LANGFUSE_SECRET_KEY": "your-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
실제 API 인증 정보로 값을 교체하세요.
FlowHunt에서 MCP 사용하기
FlowHunt 워크플로우에 MCP 서버를 통합하려면, MCP 컴포넌트를 플로우에 추가하고 AI 에이전트와 연결하세요:
MCP 컴포넌트를 클릭하면 설정 패널이 열립니다. 시스템 MCP 설정 섹션에 아래와 같은 JSON 형식으로 MCP 서버 정보를 입력하세요:
{
"langfuse": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
설정이 완료되면, 해당 AI 에이전트는 MCP의 모든 기능과 역량을 도구로 사용할 수 있습니다. "langfuse"
를 실제 MCP 서버 이름으로, URL 부분을 본인의 MCP 서버 주소로 변경하세요.
섹션 | 지원 여부 | 세부 내용/비고 |
---|---|---|
개요 | ✅ | 프롬프트 관리를 위한 Langfuse MCP |
프롬프트 목록 | ✅ | prompts/list , prompts/get |
리소스 목록 | ✅ | 프롬프트 목록화, 프롬프트 변수, 페이지네이션 리소스 |
도구 목록 | ✅ | get-prompts , get-prompt |
API 키 보안 | ✅ | MCP 설정의 환경 변수를 통해 관리 |
샘플링 지원(평가상 중요도 낮음) | ⛔ | 언급되지 않음 |
제공된 섹션과 기능 기준으로, Langfuse MCP 서버는 프롬프트 관리에 필요한 주요 MCP 기능을 잘 문서화하고 지원합니다. 샘플링 또는 roots 명시적 지원이 없다는 점은 확장성을 다소 제한할 수 있습니다. 전반적으로 해당 분야에 최적화된 강력한 구현체입니다.
라이선스 보유 | ✅ (MIT) |
---|---|
최소 1개 이상의 도구 | ✅ |
포크 수 | 22 |
스타 수 | 98 |
Langfuse MCP 서버는 FlowHunt와 같은 AI 클라이언트를 Langfuse의 프롬프트 관리 플랫폼에 연결하는 Model Context Protocol 서버입니다. 프롬프트 탐색, 조회, 동적 컴파일을 지원하여 LLM과 에이전트의 프롬프트 워크플로우를 간소화합니다.
모든 사용 가능한 프롬프트 목록화, 변수 포함 프롬프트 조회 및 컴파일, 페이지네이션 기반 프롬프트 탐색, 프롬프트 인수 노출을 지원합니다. 모든 인수는 기본적으로 선택 사항이며, LLMOps 환경에서 프로덕션 프롬프트 관리를 위해 설계되었습니다.
API 키는 MCP 서버 설정에서 환경 변수로 저장하여 보안을 유지해야 합니다. 환경 변수 설정 방법은 제공된 설정 예시를 참고하세요.
네! FlowHunt 플로우에 MCP 컴포넌트를 추가하고, 해당 MCP 서버를 가리키도록 설정하면 에이전트가 Langfuse에서 프롬프트를 동적으로 탐색, 조회, 컴파일할 수 있습니다.
중앙 집중식 프롬프트 관리, LLM 워크플로우의 표준화된 프롬프트 조회, 런타임 변수 기반 동적 프롬프트 컴파일, 프롬프트 선택 인터페이스 구현, 프롬프트 거버넌스와 감사 향상을 위한 LLMOps 툴과의 연동 등입니다.
Langfuse MCP 서버를 FlowHunt에 통합하여 AI 프롬프트 워크플로우를 중앙집중화 및 표준화하세요. 효율적인 프롬프트 탐색, 조회, 동적 컴파일을 통해 고급 LLM 운영을 실현합니다.
any-chat-completions-mcp MCP 서버는 FlowHunt 및 기타 도구를 OpenAI SDK 호환 Chat Completion API와 연결합니다. OpenAI, Perplexity, Groq, xAI, PyroPrompts 등 다양한 LLM 제공업체를 단일하고 간단한...
LlamaCloud MCP 서버는 AI 어시스턴트를 LlamaCloud의 여러 관리형 인덱스에 연결하여, 깔끔하고 도구 기반의 Model Context Protocol 인터페이스를 통해 엔터프라이즈 규모의 문서 검색, 탐색, 지식 확장 기능을 제공합니다....
lingo.dev MCP 서버는 AI 어시스턴트와 외부 데이터 소스, API, 서비스들을 연결해 구조화된 리소스 접근, 프롬프트 템플릿, 도구 실행을 가능하게 하여 고급 LLM 워크플로우를 지원합니다....