
mcp-local-rag MCPサーバー
mcp-local-rag MCPサーバーは、プライバシーを重視したローカルでのRetrieval-Augmented Generation(RAG)型のウェブ検索をLLM向けに実現します。AIアシスタントが外部APIを使わず、ウェブから最新情報を取得・埋め込み・抽出できるため、リサーチやコンテンツ作成、質問応答ワーク...
ChromaDBとOllamaで構築したFlowHunt用ローカル・セマンティックメモリMCPサーバー。AIエージェントが意味でテキストやドキュメント、PDFを記憶・検索でき、強力なRAGやナレッジワークフローを実現します。
mcp-rag-local MCPサーバーは、AIアシスタントが単なるキーワードだけでなく意味に基づいてテキストパッセージを保存・検索できるように設計されたメモリサーバーです。Ollamaによるテキスト埋め込み生成とChromaDBによるベクトル保存・類似検索を活用し、クエリに対してシームレスに関連テキストを「記憶」し、検索できます。これにより、知識管理、文脈的リコール、セマンティックサーチなどのAI活用ワークフローが実現します。開発者はこのサーバーを介して個別テキスト、複数テキスト、あるいはPDFファイルの内容さえ保存し、後に文脈的に最も関連性の高い情報を取り出すことができ、アプリケーションでの生産性と文脈認識を向上させます。
memorize_text
一つのテキストパッセージをセマンティック検索対応で保存します。
memorize_multiple_texts
複数のテキストを一括で保存でき、大量の知識インジェストに便利です。
memorize_pdf_file
PDFファイルから最大20ページずつ読み取り、内容を分割してセマンティック検索に利用できるよう記憶します。
retrieve_similar_texts
ユーザーのクエリに基づき、意味的に最も関連する保存済みテキストを検索して返します。
(ツール名は使用例から推定。コード上の名称とは異なる場合があります)
パーソナルナレッジベース
開発者やユーザーは記事・ノート・論文等を記憶させ、意味で検索できる持続的なナレッジベースを構築できます。
ドキュメント・PDF要約
PDFドキュメント全体を記憶し、後から関連部分や要約をクエリで抽出可能。リサーチやレビューの効率化に役立ちます。
チャットボットの会話メモリ
AIアシスタントやチャットボットに長期・文脈認識型のメモリを与え、より一貫性のある自然な応答を実現します。
セマンティック検索エンジン
アプリに意味ベースの検索機能を実装し、キーワードではなく「意味」で情報を探せます。
リサーチ・データ探索
技術文書、コードスニペット、学術論文等を保存し、調査・開発時に意味ベースで素早く検索できます。
git clone <repository-url>
cd mcp-rag-local
docker-compose up
でChromaDBとOllamaを起動docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
)に以下を追加"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
セクションで環境変数を利用"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
FlowHuntでのMCP利用
FlowHuntのワークフローにMCPサーバーを統合するには、まずフローにMCPコンポーネントを追加し、それをAIエージェントと接続します。
MCPコンポーネントをクリックして設定パネルを開き、システムMCP設定欄に次のようなJSON形式でサーバー情報を記述します。
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
設定が完了すれば、AIエージェントはこのMCPの全機能へアクセスできるようになります。
“mcp-rag-local"を実際のMCPサーバー名に、URLもご自身のMCPサーバーURLに書き換えてください。
セクション | 対応状況 | 詳細/備考 |
---|---|---|
概要 | ✅ | |
プロンプト一覧 | ⛔ | プロンプト/テンプレート未記載 |
リソース一覧 | ⛔ | リソース未記載 |
ツール一覧 | ✅ | memorize_text, memorize_multiple_texts, 他 |
APIキーのセキュリティ | ✅ | configのenv 経由、例あり |
サンプリング対応(評価上重要度低) | ⛔ | 記載なし |
このMCPはセマンティックメモリに特化しシンプルで明快です。一方でプロンプトテンプレートや明示的リソース、サンプリング/roots対応など高度な機能は未対応。ツールとセットアップは分かりやすく、RAGやローカル知識ワークフローに最適です。
ライセンスあり | ✅ (MIT) |
---|---|
ツールが1つ以上ある | ✅ |
フォーク数 | 1 |
スター数 | 5 |
これはローカルのMCPサーバーで、AIエージェントに意味でテキスト、ドキュメント、PDFを記憶・検索する能力を与えます。OllamaとChromaDBを利用し、知識管理や文脈メモリ、セマンティックサーチを実現します。
単一または複数のテキスト保存、PDFファイルの取り込み、意味検索による類似テキストの検索ツールを備えています。これにより、パーソナルナレッジベース構築、ドキュメント要約、チャットボットの会話メモリなどのワークフローが可能です。
uvとDockerをインストールし、リポジトリをクローン、OllamaとChromaDBを起動し、指定ポートでクライアントの設定ファイルにMCPサーバーを記述します。環境変数でセキュアな設定が可能です。
セマンティックナレッジベース構築、ドキュメント/PDF要約、チャットボットメモリの強化、セマンティック検索、リサーチデータ探索などです。
設定ファイルのenvセクションで環境変数を使用し、機密情報のハードコーディングを避けて安全性とベストプラクティスを確保してください。
mcp-local-rag MCPサーバーは、プライバシーを重視したローカルでのRetrieval-Augmented Generation(RAG)型のウェブ検索をLLM向けに実現します。AIアシスタントが外部APIを使わず、ウェブから最新情報を取得・埋め込み・抽出できるため、リサーチやコンテンツ作成、質問応答ワーク...
Rememberizer MCP サーバーは、AIアシスタントとナレッジマネジメントを橋渡しし、セマンティック検索、統合ドキュメント検索、Slack、Gmail、Dropbox、Google Drive などでのチームコラボレーションを実現します。強力なドキュメント・統合ツールでAIワークフローを効率化。...
Chroma MCPサーバーは、FlowHuntユーザーにセマンティック検索、メタデータフィルタリング、堅牢なコレクション管理など、AI駆動アプリケーション向けの高度なベクターデータベース機能を提供します。Chromaをフローに簡単に統合し、効率的なドキュメント検索、分析、ナレッジマネジメントを実現できます。...