
خادم Chatsum MCP
يتيح خادم Chatsum MCP لوكلاء الذكاء الاصطناعي الاستعلام وتلخيص رسائل الدردشة من قاعدة بيانات دردشة المستخدم، مما يوفر رؤى موجزة حول المحادثات ويدعم التحليلات ضم...
عميل MCP نظيف وتعليمي للتفاعل مع عدة LLMs من خلال واجهة دردشة سطح مكتب موحدة، مثالي للتعلم والنماذج الأولية والتطوير.
Chat MCP هو تطبيق دردشة سطح مكتب يستفيد من بروتوكول نموذج السياق (MCP) للتكامل مع نماذج اللغة الكبيرة (LLMs) المختلفة. تم بناؤه باستخدام Electron ليتوافق مع جميع المنصات، ويسمح Chat MCP للمستخدمين بالاتصال وإدارة عدة خلفيات LLM، موفرًا واجهة موحدة لاختبار والتفاعل وتكوين نماذج الذكاء الاصطناعي المختلفة. تم تصميم قاعدة الشيفرة البسيطة لمساعدة المطورين والباحثين على فهم المبادئ الأساسية لـ MCP، وإنشاء نماذج أولية بسرعة مع خوادم مختلفة، وتبسيط سير العمل المتعلق بـ LLMs. تشمل الميزات الرئيسية إعداد LLM ديناميكي، إدارة متعددة العملاء، وسهولة التكيف لكل من بيئات سطح المكتب والويب.
لا يوجد قوالب مطالبات مذكورة في التوثيق أو ملفات المستودع المتاحة.
لا توجد موارد MCP صريحة موثقة في المستودع أو أمثلة الإعداد.
لا توجد أدوات محددة مدرجة أو موصوفة ضمن المستودع أو ملف server.py
(المستودع لا يحتوي على ملف server.py
أو تعريفات أدوات مكافئة).
منصة اختبار LLM موحدة
يمكّن Chat MCP المطورين من تكوين واختبار مزودي ونماذج LLM متعددة بسرعة ضمن واجهة واحدة، مما يسرّع عملية التقييم.
تطبيق دردشة ذكاء اصطناعي متعدد المنصات
بدعمه لـ Linux وmacOS وWindows، يمكن استخدام Chat MCP كعميل دردشة سطح مكتب للتفاعل مع نماذج الذكاء الاصطناعي على أي نظام تشغيل رئيسي.
تطوير وتصحيح تكاملات MCP
بفضل قاعدة الشيفرة النظيفة، يمكن للمطورين استخدام Chat MCP كمرجع أو نقطة انطلاق لبناء أو تصحيح تطبيقاتهم المتوافقة مع MCP.
أداة تعليمية لـ MCP
النهج البسيط للمشروع يجعله مثاليًا لتعلم بروتوكول نموذج السياق والتجربة مع اتصال LLM.
git clone https://github.com/AI-QL/chat-mcp.git
src/main/config.json
بمعلومات واجهة برمجة LLM وإعدادات MCP الخاصة بك.npm install
npm start
مثال على إعداد JSON:
{
"chatbotStore": {
"apiKey": "",
"url": "https://api.aiql.com",
"path": "/v1/chat/completions",
"model": "gpt-4o-mini",
"mcp": true
}
}
ملاحظة: قم بتأمين مفاتيح API باستخدام متغيرات البيئة أو التخزين المشفر (غير مدعوم مباشرة في الإعداد الحالي، لكن يُوصى به).
src/main/config.json
مع نقطة نهاية Claude API والتفاصيل.npm install
.npm start
.مثال على JSON:
{
"chatbotStore": {
"apiKey": "",
"url": "https://anthropic.api.endpoint",
"path": "/v1/messages",
"model": "claude-3-opus",
"mcp": true
}
}
ملاحظة: استخدم متغيرات البيئة للبيانات الحساسة.
src/main/config.json
لخلفية Cursor.مثال على JSON:
{
"chatbotStore": {
"apiKey": "",
"url": "https://cursor.api.endpoint",
"path": "/v1/chat/completions",
"model": "cursor-model",
"mcp": true
}
}
ملاحظة: استخدم متغيرات البيئة لمفاتيح API.
src/main/config.json
لتفاصيل Cline API.npm install
.npm start
.مثال على JSON:
{
"chatbotStore": {
"apiKey": "",
"url": "https://cline.api.endpoint",
"path": "/v1/chat/completions",
"model": "cline-model",
"mcp": true
}
}
ملاحظة: قم بتأمين مفاتيح API باستخدام متغيرات البيئة.
مثال على تأمين مفاتيح API:
{
"chatbotStore": {
"apiKey": "${API_KEY}",
"url": "https://api.example.com",
"path": "/v1/chat/completions",
"model": "your-model",
"mcp": true
}
}
قم بتعيين API_KEY
في متغيرات البيئة قبل تشغيل التطبيق.
استخدام MCP في FlowHunt
لدمج خوادم MCP ضمن سير عمل FlowHunt الخاص بك، ابدأ بإضافة مكون MCP إلى التدفق الخاص بك وربطه بوكيل الذكاء الاصطناعي:
انقر على مكون MCP لفتح لوحة الإعدادات. في قسم إعدادات MCP للنظام، أدخل تفاصيل خادم MCP الخاص بك باستخدام هذا التنسيق JSON:
{
"chat-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
بعد الإعداد، يمكن لوكيل الذكاء الاصطناعي الآن استخدام هذا MCP كأداة مع الوصول إلى جميع وظائفه وقدراته. تذكر تغيير “chat-mcp” إلى اسم خادم MCP الفعلي واستبدال عنوان URL بعنوان خادم MCP الخاص بك.
القسم | متوفر | التفاصيل/ملاحظات |
---|---|---|
نظرة عامة | ✅ | |
قائمة القوالب | ⛔ | لا توجد قوالب مطالبات موثقة |
قائمة الموارد | ⛔ | لا توجد موارد MCP موثقة |
قائمة الأدوات | ⛔ | لا توجد أدوات مدرجة |
تأمين مفاتيح API | ✅ | موصى به؛ غير مدعوم بشكل أصلي ولكن يُنصح به |
دعم التعيين (أقل أهمية في التقييم) | ⛔ | لا يوجد ذكر لدعم التعيين |
استنادًا إلى المعلومات المتاحة، يعتبر Chat MCP عميل MCP بسيط وتعليمي ومرن، لكن يفتقر إلى الميزات المتقدمة لـ MCP (الأدوات، الموارد، التعيين، الجذور) في التوثيق والإعدادات العامة. تكمن قيمته الأساسية في كونه واجهة دردشة نظيفة وقابلة للتعديل. بشكل عام، هو نقطة انطلاق جيدة لتعلم MCP أو كأساس لعمليات تكامل أكثر تقدمًا.
يمتلك رخصة | ✅ Apache-2.0 |
---|---|
يحتوي على أداة واحدة على الأقل | ⛔ |
عدد الفروع | 31 |
عدد النجوم | 226 |
Chat MCP هو تطبيق دردشة سطح مكتب متعدد المنصات مبني باستخدام Electron، ومصمم للاتصال بمختلف خلفيات LLM باستخدام بروتوكول نموذج السياق (MCP). يوفر واجهة موحدة للنماذج الأولية والاختبار وتكوين LLMs.
Chat MCP مثالي لاختبار LLM، تصحيح تكاملات MCP، تعلم مبادئ MCP، ويعمل كتنفيذ مرجعي نظيف أو قاعدة لأدوات دردشة أكثر تقدمًا.
بينما يستخدم إعداد Chat MCP الافتراضي نصًا عاديًا، يُوصى بتعيين القيم الحساسة مثل مفاتيح API كمتغيرات بيئة والإشارة إليها في إعداداتك.
لا، التوثيق العام وقاعدة الشيفرة لا يتضمنان ميزات MCP المتقدمة مثل الأدوات أو الموارد. يركز Chat MCP على توفير واجهة دردشة بسيطة وقابلة للتوسيع لـ LLMs.
نعم. يمكن دمج Chat MCP كخادم MCP داخل FlowHunt عن طريق إضافة مكون MCP إلى التدفق الخاص بك وتكوينه باستخدام تفاصيل الخادم بتنسيق JSON. راجع التوثيق للخطوات الدقيقة.
استكشف وتفاعل مع عدة LLMs باستخدام Chat MCP. مثالي لتعلم MCP، النماذج الأولية السريعة، وتجارب الدردشة الموحدة.
يتيح خادم Chatsum MCP لوكلاء الذكاء الاصطناعي الاستعلام وتلخيص رسائل الدردشة من قاعدة بيانات دردشة المستخدم، مما يوفر رؤى موجزة حول المحادثات ويدعم التحليلات ضم...
يربط خادم MCP أي-تشات-كمبليشنز-MCP بين FlowHunt وأدوات أخرى مع أي واجهة برمجة تطبيقات (API) متوافقة مع OpenAI SDK لإكمال الدردشة. يتيح التكامل السلس بين مزودي L...
خادم Lspace MCP هو تطبيق مفتوح المصدر يعمل كخادم خلفي وتطبيق مستقل يطبق بروتوكول سياق النموذج (MCP). يمكّن من إنشاء معرفة دائمة وقابلة للبحث من خلال التقاط الأف...