
خادم Rememberizer MCP
يعمل خادم Rememberizer MCP كجسر بين مساعدي الذكاء الاصطناعي وإدارة المعرفة، مما يمكّن البحث الدلالي، واسترجاع الوثائق الموحد، والتعاون بين الفرق عبر Slack، وGma...
خادم MCP محلي بذاكرة دلالية لـ FlowHunt، مبني باستخدام ChromaDB وOllama. يمكّن وكلاء الذكاء الاصطناعي من حفظ واسترجاع النصوص والمستندات وملفات PDF بالمعنى، ويدعم سير عمل RAG وإدارة المعرفة القوية.
تم تصميم خادم mcp-rag-local MCP كخادم ذاكرة يسمح لمساعدي الذكاء الاصطناعي بتخزين واسترجاع المقاطع النصية بناءً على معناها الدلالي، وليس فقط الكلمات المفتاحية. بالاستفادة من Ollama لإنشاء تضمينات النصوص وChromaDB لتخزين المتجهات والبحث عن التشابه، يتيح تخزين (“حفظ”) واسترجاع سلس للنصوص ذات الصلة باستعلام معين. هذا يمكّن سير العمل المدفوع بالذكاء الاصطناعي مثل إدارة المعرفة، الاستدعاء السياقي، والبحث الدلالي. يمكن للمطورين التفاعل مع الخادم لتخزين نصوص فردية أو متعددة أو حتى محتوى ملفات PDF، ثم استرجاع المعلومات الأكثر صلة بالسياق، مما يعزز الإنتاجية والوعي السياقي في التطبيقات.
memorize_text
يسمح للخادم بتخزين مقطع نصي واحد لاسترجاعه الدلالي مستقبلاً.
memorize_multiple_texts
يمكّن التخزين الدفعي لعدة نصوص دفعة واحدة، لتسهيل إدخال المعرفة بالجملة.
memorize_pdf_file
يقرأ ويستخرج حتى 20 صفحة في كل مرة من ملف PDF، ويقسم المحتوى ويحفظه للاسترجاع الدلالي.
retrieve_similar_texts
يسترجع أكثر المقاطع النصية المخزنة ملاءمة بناءً على استعلام المستخدم باستخدام التشابه الدلالي.
(أسماء الأدوات مستخلصة من أنماط الاستخدام الموثقة؛ قد تختلف الأسماء الفعلية في الشيفرة.)
قاعدة معرفة شخصية
يمكن للمطورين والمستخدمين بناء قاعدة معرفة دائمة وقابلة للبحث بحفظ المقالات أو الملاحظات أو الأبحاث لاسترجاعها دلالياً.
تلخيص المستندات وملفات PDF
بحفظ مستندات PDF كاملة، يمكن للمستخدمين لاحقاً الاستعلام واسترجاع أقسام أو ملخصات ذات صلة، مما يسهل البحث والمراجعة.
ذاكرة محادثة للشات بوتات
عزز مساعدي الذكاء الاصطناعي أو الشات بوتات بذاكرة طويلة المدى وواعية للسياق لتقديم ردود أكثر ترابطاً وملاءمة.
محرك بحث دلالي
نفّذ ميزة البحث الدلالي في التطبيقات، لتمكين المستخدمين من إيجاد المعلومات وفقاً للمعنى وليس فقط الكلمات.
استكشاف الأبحاث والبيانات
خزّن واستعلم عن مستندات تقنية أو شيفرات أو أدبيات علمية لاسترجاع سريع وقائم على المعنى أثناء التحقيق أو التطوير.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
لبدء ChromaDB وOllama.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
من الإعدادات."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
استخدام MCP في FlowHunt
لدمج خوادم MCP في سير عمل FlowHunt، ابدأ بإضافة مكون MCP إلى التدفق وربطه بوكيل الذكاء الاصطناعي:
انقر على مكون MCP لفتح لوحة الإعدادات. في قسم إعدادات MCP للنظام، أدخل تفاصيل خادم MCP الخاص بك بهذا الشكل:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
بعد الإعداد، يصبح لدى وكيل الذكاء الاصطناعي إمكانية استخدام هذا MCP كأداة مع جميع وظائفه وقدراته. تذكر تغيير “mcp-rag-local” إلى اسم خادم MCP الفعلي الخاص بك واستبدال الرابط بالرابط الصحيح.
القسم | متوفر | التفاصيل/ملاحظات |
---|---|---|
نظرة عامة | ✅ | |
قائمة العبارات (Prompts) | ⛔ | لا توجد عبارات/قوالب موثقة |
قائمة الموارد | ⛔ | لا توجد موارد موثقة |
قائمة الأدوات | ✅ | memorize_text، memorize_multiple_texts، إلخ |
تأمين مفاتيح API | ✅ | عبر env في الإعداد، مثال موضح |
دعم أخذ العينات (أقل أهمية في التقييم) | ⛔ | غير مذكور |
هذا MCP مباشر ومركّز جيداً على الذاكرة الدلالية، لكنه يفتقر لميزات متقدمة مثل قوالب العبارات أو الموارد الصريحة أو دعم الجذور/العينات. الأدوات والإعداد واضحة. الأنسب لسير عمل RAG/المعرفة المحلي البسيط.
لديه رخصة LICENSE | ✅ (MIT) |
---|---|
يحتوي على أداة واحدة على الأقل | ✅ |
عدد التفرعات Forks | 1 |
عدد النجوم Stars | 5 |
هو خادم MCP محلي يمنح وكلاء الذكاء الاصطناعي القدرة على تخزين واسترجاع النصوص والمستندات وملفات PDF بناءً على المعنى الدلالي. مدعوم من Ollama وChromaDB، ويتيح إدارة المعرفة، الذاكرة السياقية، والبحث الدلالي لتطبيقاتك.
يوفر أدوات لتخزين مقطع نصي واحد أو عدة مقاطع، استيعاب ملفات PDF، واسترجاع نصوص مشابهة باستخدام البحث الدلالي. يمكّن سير عمل مثل بناء قواعد المعرفة الشخصية، تلخيص المستندات، وذاكرة المحادثة للشات بوتات.
ثبّت uv وDocker، استنسخ المستودع، ابدأ Ollama وChromaDB، وقم بإعداد خادم MCP في ملف إعدادات العميل مع المنافذ المحددة. يتم استخدام متغيرات البيئة لأمان الإعدادات.
تشمل الاستخدامات بناء قاعدة معرفة دلالية، تلخيص المستندات/ملفات PDF، تعزيز ذاكرة الشات بوت، البحث الدلالي، واستكشاف بيانات الأبحاث.
استخدم دائمًا متغيرات البيئة في قسم env من الإعدادات لتجنب تضمين المعلومات الحساسة مباشرة، وذلك لضمان الأمان وأفضل الممارسات.
عزز سير عمل الذكاء الاصطناعي لديك بالذاكرة الدلالية والبحث المحلي في المستندات باستخدام mcp-rag-local. الإعداد في دقائق وغيّر طريقة استرجاع وكلائك للمعرفة وتفكيرهم فيها.
يعمل خادم Rememberizer MCP كجسر بين مساعدي الذكاء الاصطناعي وإدارة المعرفة، مما يمكّن البحث الدلالي، واسترجاع الوثائق الموحد، والتعاون بين الفرق عبر Slack، وGma...
يتيح خادم mcp-local-rag MCP البحث في الويب باستخدام الجيل المعزز بالاسترجاع (RAG) بشكل محلي مع احترام الخصوصية لنماذج الذكاء الاصطناعي الضخمة (LLMs). يسمح للمسا...
قم بدمج نظام البطاقات التعليمية بتكرار التباعد الخاص بـ Rember مع المساعدين الذكاء الاصطناعي باستخدام خادم Rember MCP. أتمتة إنشاء البطاقات التعليمية من الدردشا...