
خادم Lspace MCP
خادم Lspace MCP هو تطبيق مفتوح المصدر يعمل كخادم خلفي وتطبيق مستقل يطبق بروتوكول سياق النموذج (MCP). يمكّن من إنشاء معرفة دائمة وقابلة للبحث من خلال التقاط الأف...

اربط وكلاء الذكاء الاصطناعي بسلاسة بمشاريع الشيفرة والنصوص مع خادم LLM Context MCP—لتنظيم تدفقات تطوير غنية بالسياق وآمنة ومؤتمتة.
يوفر FlowHunt طبقة أمان إضافية بين أنظمتك الداخلية وأدوات الذكاء الاصطناعي، مما يمنحك تحكماً دقيقاً في الأدوات التي يمكن الوصول إليها من خوادم MCP الخاصة بك. يمكن دمج خوادم MCP المستضافة في بنيتنا التحتية بسلاسة مع روبوت الدردشة الخاص بـ FlowHunt بالإضافة إلى منصات الذكاء الاصطناعي الشائعة مثل ChatGPT وClaude ومحررات الذكاء الاصطناعي المختلفة.
خادم LLM Context MCP هو أداة صُممت لربط مساعدي الذكاء الاصطناعي بمشاريع الشيفرة والنصوص الخارجية بسلاسة، مع تعزيز تدفق العمل البرمجي عبر بروتوكول Model Context Protocol (MCP). من خلال الاستفادة من أنماط .gitignore لاختيار الملفات بذكاء، يمكّن المطورين من إدراج محتوى ذي صلة عالية مباشرة في واجهات الدردشة الخاصة بالذكاء الاصطناعي أو استخدام تدفق الحافظة المبسط. يتيح هذا تنفيذ مهام مثل مراجعة الشيفرة، توليد الوثائق، واستكشاف المشاريع بكفاءة مع مساعدة ذكاء اصطناعي مدركة للسياق. يعتبر LLM Context فعالاً بشكل خاص لكل من مستودعات الشيفرة ومجموعات الوثائق النصية، مما يجعله جسراً متعدد الاستخدامات بين بيانات المشروع وتدفقات العمل المعتمدة على الذكاء الاصطناعي.
لم يتم العثور على معلومات في المستودع حول قوالب أوامر محددة.
لم يتم ذكر موارد صريحة في الملفات أو الوثائق المقدمة.
لا يوجد ملف server.py أو ملف مكافئ يسرد الأدوات في بنية المستودع الظاهرة. لم يتم العثور على معلومات حول الأدوات المتاحة.
windsurf.config.json).{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
عيّن متغيرات البيئة لحماية مفاتيح وأسرار API. مثال على الإعداد:
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": [],
"env": {
"API_KEY": "${LLM_CONTEXT_API_KEY}"
},
"inputs": {
"apiKey": "${LLM_CONTEXT_API_KEY}"
}
}
}
}
استخدام MCP في FlowHunt
لدمج خوادم MCP في تدفق عمل FlowHunt الخاص بك، ابدأ بإضافة مكون MCP إلى التدفق وربطه بوكيل الذكاء الاصطناعي لديك:

انقر على مكون MCP لفتح لوحة الإعدادات. في قسم إعدادات MCP للنظام، أدخل تفاصيل خادم MCP مستخدماً هذا التنسيق في JSON:
{
"llm-context": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
بعد الإعداد، سيتمكن وكيل الذكاء الاصطناعي الآن من استخدام هذا MCP كأداة مع إمكانية الوصول إلى جميع وظائفه وقدراته. تذكّر تغيير “llm-context” إلى اسم خادم MCP الفعلي الخاص بك واستبدال عنوان URL بعنوان خادم MCP الخاص بك.
| القسم | متوفر | التفاصيل/ملاحظات |
|---|---|---|
| نظرة عامة | ✅ | |
| قائمة الأوامر | ⛔ | لا توجد معلومات |
| قائمة الموارد | ⛔ | لا توجد معلومات |
| قائمة الأدوات | ⛔ | لا توجد معلومات |
| تأمين مفاتيح API | ✅ | تم توفير مثال لمتغيرات البيئة |
| دعم العينات (أقل أهمية في التقييم) | ⛔ | لا توجد معلومات |
استناداً إلى الجدولين، يمتاز هذا الخادم MCP بنظرة عامة قوية وأفضل ممارسات الأمان، لكنه يفتقر لوثائق واضحة حول الأوامر والموارد والأدوات. لذلك فهو الأنسب لتدفقات مشاركة السياق الأساسية ويتطلب المزيد من التوثيق للاستفادة الكاملة من الميزات المتقدمة لـ MCP.
| هل لديه رخصة؟ | ✅ (Apache-2.0) |
|---|---|
| هل يوجد أداة واحدة على الأقل | ⛔ |
| عدد التفرعات (Forks) | 18 |
| عدد النجوم (Stars) | 231 |
ادمج خادم LLM Context MCP في FlowHunt من أجل أتمتة أذكى ومدركة للسياق في عمليات تطوير الشيفرة وتوليد الوثائق.

خادم Lspace MCP هو تطبيق مفتوح المصدر يعمل كخادم خلفي وتطبيق مستقل يطبق بروتوكول سياق النموذج (MCP). يمكّن من إنشاء معرفة دائمة وقابلة للبحث من خلال التقاط الأف...

يتيح خادم LlamaCloud MCP ربط المساعدين الذكاء الاصطناعي بالعديد من الفهارس المُدارة على LlamaCloud، مما يمكّن من استرجاع المستندات والبحث والتعزيز المعرفي على م...

يعمل خادم Figma-Context MCP على ربط وكلاء الترميز الذكي بتصاميم Figma من خلال توفير بيانات Figma عبر بروتوكول سياق النماذج (MCP). يتيح للمساعدين الذكيين الوصول ...
الموافقة على ملفات تعريف الارتباط
نستخدم ملفات تعريف الارتباط لتعزيز تجربة التصفح وتحليل حركة المرور لدينا. See our privacy policy.