
تكامل خادم الذاكرة MCP
ادمج FlowHunt مع خادم الذاكرة mcp-rag-local لتمكين التخزين الدلالي المتقدم واسترجاع البيانات النصية. استفد من سير العمل المدعوم بالذكاء الاصطناعي باستخدام Ollam...

خادم MCP محلي بذاكرة دلالية لـ FlowHunt، مبني باستخدام ChromaDB وOllama. يمكّن وكلاء الذكاء الاصطناعي من حفظ واسترجاع النصوص والمستندات وملفات PDF بالمعنى، ويدعم سير عمل RAG وإدارة المعرفة القوية.
يوفر FlowHunt طبقة أمان إضافية بين أنظمتك الداخلية وأدوات الذكاء الاصطناعي، مما يمنحك تحكماً دقيقاً في الأدوات التي يمكن الوصول إليها من خوادم MCP الخاصة بك. يمكن دمج خوادم MCP المستضافة في بنيتنا التحتية بسلاسة مع روبوت الدردشة الخاص بـ FlowHunt بالإضافة إلى منصات الذكاء الاصطناعي الشائعة مثل ChatGPT وClaude ومحررات الذكاء الاصطناعي المختلفة.
تم تصميم خادم mcp-rag-local MCP كخادم ذاكرة يسمح لمساعدي الذكاء الاصطناعي بتخزين واسترجاع المقاطع النصية بناءً على معناها الدلالي، وليس فقط الكلمات المفتاحية. بالاستفادة من Ollama لإنشاء تضمينات النصوص وChromaDB لتخزين المتجهات والبحث عن التشابه، يتيح تخزين (“حفظ”) واسترجاع سلس للنصوص ذات الصلة باستعلام معين. هذا يمكّن سير العمل المدفوع بالذكاء الاصطناعي مثل إدارة المعرفة، الاستدعاء السياقي، والبحث الدلالي. يمكن للمطورين التفاعل مع الخادم لتخزين نصوص فردية أو متعددة أو حتى محتوى ملفات PDF، ثم استرجاع المعلومات الأكثر صلة بالسياق، مما يعزز الإنتاجية والوعي السياقي في التطبيقات.
memorize_text
يسمح للخادم بتخزين مقطع نصي واحد لاسترجاعه الدلالي مستقبلاً.
memorize_multiple_texts
يمكّن التخزين الدفعي لعدة نصوص دفعة واحدة، لتسهيل إدخال المعرفة بالجملة.
memorize_pdf_file
يقرأ ويستخرج حتى 20 صفحة في كل مرة من ملف PDF، ويقسم المحتوى ويحفظه للاسترجاع الدلالي.
retrieve_similar_texts
يسترجع أكثر المقاطع النصية المخزنة ملاءمة بناءً على استعلام المستخدم باستخدام التشابه الدلالي.
(أسماء الأدوات مستخلصة من أنماط الاستخدام الموثقة؛ قد تختلف الأسماء الفعلية في الشيفرة.)
قاعدة معرفة شخصية
يمكن للمطورين والمستخدمين بناء قاعدة معرفة دائمة وقابلة للبحث بحفظ المقالات أو الملاحظات أو الأبحاث لاسترجاعها دلالياً.
تلخيص المستندات وملفات PDF
بحفظ مستندات PDF كاملة، يمكن للمستخدمين لاحقاً الاستعلام واسترجاع أقسام أو ملخصات ذات صلة، مما يسهل البحث والمراجعة.
ذاكرة محادثة للشات بوتات
عزز مساعدي الذكاء الاصطناعي أو الشات بوتات بذاكرة طويلة المدى وواعية للسياق لتقديم ردود أكثر ترابطاً وملاءمة.
محرك بحث دلالي
نفّذ ميزة البحث الدلالي في التطبيقات، لتمكين المستخدمين من إيجاد المعلومات وفقاً للمعنى وليس فقط الكلمات.
استكشاف الأبحاث والبيانات
خزّن واستعلم عن مستندات تقنية أو شيفرات أو أدبيات علمية لاسترجاع سريع وقائم على المعنى أثناء التحقيق أو التطوير.
git clone <repository-url>cd mcp-rag-localdocker-compose up لبدء ChromaDB وOllama.docker exec -it ollama ollama pull all-minilm:l6-v2mcpServers):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env من الإعدادات."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
استخدام MCP في FlowHunt
لدمج خوادم MCP في سير عمل FlowHunt، ابدأ بإضافة مكون MCP إلى التدفق وربطه بوكيل الذكاء الاصطناعي:

انقر على مكون MCP لفتح لوحة الإعدادات. في قسم إعدادات MCP للنظام، أدخل تفاصيل خادم MCP الخاص بك بهذا الشكل:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
بعد الإعداد، يصبح لدى وكيل الذكاء الاصطناعي إمكانية استخدام هذا MCP كأداة مع جميع وظائفه وقدراته. تذكر تغيير “mcp-rag-local” إلى اسم خادم MCP الفعلي الخاص بك واستبدال الرابط بالرابط الصحيح.
| القسم | متوفر | التفاصيل/ملاحظات |
|---|---|---|
| نظرة عامة | ✅ | |
| قائمة العبارات (Prompts) | ⛔ | لا توجد عبارات/قوالب موثقة |
| قائمة الموارد | ⛔ | لا توجد موارد موثقة |
| قائمة الأدوات | ✅ | memorize_text، memorize_multiple_texts، إلخ |
| تأمين مفاتيح API | ✅ | عبر env في الإعداد، مثال موضح |
| دعم أخذ العينات (أقل أهمية في التقييم) | ⛔ | غير مذكور |
هذا MCP مباشر ومركّز جيداً على الذاكرة الدلالية، لكنه يفتقر لميزات متقدمة مثل قوالب العبارات أو الموارد الصريحة أو دعم الجذور/العينات. الأدوات والإعداد واضحة. الأنسب لسير عمل RAG/المعرفة المحلي البسيط.
| لديه رخصة LICENSE | ✅ (MIT) |
|---|---|
| يحتوي على أداة واحدة على الأقل | ✅ |
| عدد التفرعات Forks | 1 |
| عدد النجوم Stars | 5 |
عزز سير عمل الذكاء الاصطناعي لديك بالذاكرة الدلالية والبحث المحلي في المستندات باستخدام mcp-rag-local. الإعداد في دقائق وغيّر طريقة استرجاع وكلائك للمعرفة وتفكيرهم فيها.

ادمج FlowHunt مع خادم الذاكرة mcp-rag-local لتمكين التخزين الدلالي المتقدم واسترجاع البيانات النصية. استفد من سير العمل المدعوم بالذكاء الاصطناعي باستخدام Ollam...

يتيح خادم mcp-local-rag MCP البحث في الويب باستخدام الجيل المعزز بالاسترجاع (RAG) بشكل محلي مع احترام الخصوصية لنماذج الذكاء الاصطناعي الضخمة (LLMs). يسمح للمسا...

يعمل خادم Rememberizer MCP كجسر بين مساعدي الذكاء الاصطناعي وإدارة المعرفة، مما يمكّن البحث الدلالي، واسترجاع الوثائق الموحد، والتعاون بين الفرق عبر Slack، وGma...
الموافقة على ملفات تعريف الارتباط
نستخدم ملفات تعريف الارتباط لتعزيز تجربة التصفح وتحليل حركة المرور لدينا. See our privacy policy.