خادم Chat MCP

خادم Chat MCP

عميل MCP نظيف وتعليمي للتفاعل مع عدة LLMs من خلال واجهة دردشة سطح مكتب موحدة، مثالي للتعلم والنماذج الأولية والتطوير.

ماذا يفعل خادم “Chat MCP” MCP؟

Chat MCP هو تطبيق دردشة سطح مكتب يستفيد من بروتوكول نموذج السياق (MCP) للتكامل مع نماذج اللغة الكبيرة (LLMs) المختلفة. تم بناؤه باستخدام Electron ليتوافق مع جميع المنصات، ويسمح Chat MCP للمستخدمين بالاتصال وإدارة عدة خلفيات LLM، موفرًا واجهة موحدة لاختبار والتفاعل وتكوين نماذج الذكاء الاصطناعي المختلفة. تم تصميم قاعدة الشيفرة البسيطة لمساعدة المطورين والباحثين على فهم المبادئ الأساسية لـ MCP، وإنشاء نماذج أولية بسرعة مع خوادم مختلفة، وتبسيط سير العمل المتعلق بـ LLMs. تشمل الميزات الرئيسية إعداد LLM ديناميكي، إدارة متعددة العملاء، وسهولة التكيف لكل من بيئات سطح المكتب والويب.

قائمة القوالب

لا يوجد قوالب مطالبات مذكورة في التوثيق أو ملفات المستودع المتاحة.

قائمة الموارد

لا توجد موارد MCP صريحة موثقة في المستودع أو أمثلة الإعداد.

قائمة الأدوات

لا توجد أدوات محددة مدرجة أو موصوفة ضمن المستودع أو ملف server.py (المستودع لا يحتوي على ملف server.py أو تعريفات أدوات مكافئة).

حالات استخدام هذا الخادم MCP

  • منصة اختبار LLM موحدة
    يمكّن Chat MCP المطورين من تكوين واختبار مزودي ونماذج LLM متعددة بسرعة ضمن واجهة واحدة، مما يسرّع عملية التقييم.

  • تطبيق دردشة ذكاء اصطناعي متعدد المنصات
    بدعمه لـ Linux وmacOS وWindows، يمكن استخدام Chat MCP كعميل دردشة سطح مكتب للتفاعل مع نماذج الذكاء الاصطناعي على أي نظام تشغيل رئيسي.

  • تطوير وتصحيح تكاملات MCP
    بفضل قاعدة الشيفرة النظيفة، يمكن للمطورين استخدام Chat MCP كمرجع أو نقطة انطلاق لبناء أو تصحيح تطبيقاتهم المتوافقة مع MCP.

  • أداة تعليمية لـ MCP
    النهج البسيط للمشروع يجعله مثاليًا لتعلم بروتوكول نموذج السياق والتجربة مع اتصال LLM.

كيف تقوم بإعداده

Windsurf

  1. تثبيت Node.js: قم بتحميل وتثبيت Node.js من nodejs.org.
  2. استنساخ المستودع:
    git clone https://github.com/AI-QL/chat-mcp.git
  3. تعديل الإعدادات:
    عدل ملف src/main/config.json بمعلومات واجهة برمجة LLM وإعدادات MCP الخاصة بك.
  4. تثبيت الاعتمادات:
    npm install
  5. تشغيل التطبيق:
    npm start

مثال على إعداد JSON:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://api.aiql.com",
        "path": "/v1/chat/completions",
        "model": "gpt-4o-mini",
        "mcp": true
    }
}

ملاحظة: قم بتأمين مفاتيح API باستخدام متغيرات البيئة أو التخزين المشفر (غير مدعوم مباشرة في الإعداد الحالي، لكن يُوصى به).

Claude

  1. تثبيت Node.js: احصل على Node.js من nodejs.org.
  2. تحميل أو استنساخ Chat MCP.
  3. تعديل src/main/config.json مع نقطة نهاية Claude API والتفاصيل.
  4. تشغيل npm install.
  5. تشغيل التطبيق بـ npm start.

مثال على JSON:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://anthropic.api.endpoint",
        "path": "/v1/messages",
        "model": "claude-3-opus",
        "mcp": true
    }
}

ملاحظة: استخدم متغيرات البيئة للبيانات الحساسة.

Cursor

  1. تثبيت Node.js.
  2. استنساخ مستودع Chat MCP.
  3. تحديث src/main/config.json لخلفية Cursor.
  4. تثبيت الاعتمادات.
  5. تشغيل التطبيق.

مثال على JSON:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://cursor.api.endpoint",
        "path": "/v1/chat/completions",
        "model": "cursor-model",
        "mcp": true
    }
}

ملاحظة: استخدم متغيرات البيئة لمفاتيح API.

Cline

  1. تثبيت Node.js.
  2. استنساخ المستودع.
  3. تعديل src/main/config.json لتفاصيل Cline API.
  4. تشغيل npm install.
  5. تشغيل التطبيق بـ npm start.

مثال على JSON:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://cline.api.endpoint",
        "path": "/v1/chat/completions",
        "model": "cline-model",
        "mcp": true
    }
}

ملاحظة: قم بتأمين مفاتيح API باستخدام متغيرات البيئة.

مثال على تأمين مفاتيح API:

{
    "chatbotStore": {
        "apiKey": "${API_KEY}",
        "url": "https://api.example.com",
        "path": "/v1/chat/completions",
        "model": "your-model",
        "mcp": true
    }
}

قم بتعيين API_KEY في متغيرات البيئة قبل تشغيل التطبيق.

كيفية استخدام MCP هذا ضمن التدفقات

استخدام MCP في FlowHunt

لدمج خوادم MCP ضمن سير عمل FlowHunt الخاص بك، ابدأ بإضافة مكون MCP إلى التدفق الخاص بك وربطه بوكيل الذكاء الاصطناعي:

FlowHunt MCP flow

انقر على مكون MCP لفتح لوحة الإعدادات. في قسم إعدادات MCP للنظام، أدخل تفاصيل خادم MCP الخاص بك باستخدام هذا التنسيق JSON:

{
  "chat-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

بعد الإعداد، يمكن لوكيل الذكاء الاصطناعي الآن استخدام هذا MCP كأداة مع الوصول إلى جميع وظائفه وقدراته. تذكر تغيير “chat-mcp” إلى اسم خادم MCP الفعلي واستبدال عنوان URL بعنوان خادم MCP الخاص بك.


نظرة عامة

القسممتوفرالتفاصيل/ملاحظات
نظرة عامة
قائمة القوالبلا توجد قوالب مطالبات موثقة
قائمة المواردلا توجد موارد MCP موثقة
قائمة الأدواتلا توجد أدوات مدرجة
تأمين مفاتيح APIموصى به؛ غير مدعوم بشكل أصلي ولكن يُنصح به
دعم التعيين (أقل أهمية في التقييم)لا يوجد ذكر لدعم التعيين

استنادًا إلى المعلومات المتاحة، يعتبر Chat MCP عميل MCP بسيط وتعليمي ومرن، لكن يفتقر إلى الميزات المتقدمة لـ MCP (الأدوات، الموارد، التعيين، الجذور) في التوثيق والإعدادات العامة. تكمن قيمته الأساسية في كونه واجهة دردشة نظيفة وقابلة للتعديل. بشكل عام، هو نقطة انطلاق جيدة لتعلم MCP أو كأساس لعمليات تكامل أكثر تقدمًا.


تقييم MCP

يمتلك رخصة✅ Apache-2.0
يحتوي على أداة واحدة على الأقل
عدد الفروع31
عدد النجوم226

الأسئلة الشائعة

ما هو Chat MCP؟

Chat MCP هو تطبيق دردشة سطح مكتب متعدد المنصات مبني باستخدام Electron، ومصمم للاتصال بمختلف خلفيات LLM باستخدام بروتوكول نموذج السياق (MCP). يوفر واجهة موحدة للنماذج الأولية والاختبار وتكوين LLMs.

ما هي الاستخدامات الرئيسية لـ Chat MCP؟

Chat MCP مثالي لاختبار LLM، تصحيح تكاملات MCP، تعلم مبادئ MCP، ويعمل كتنفيذ مرجعي نظيف أو قاعدة لأدوات دردشة أكثر تقدمًا.

كيف أؤمن مفاتيح API الخاصة بي في Chat MCP؟

بينما يستخدم إعداد Chat MCP الافتراضي نصًا عاديًا، يُوصى بتعيين القيم الحساسة مثل مفاتيح API كمتغيرات بيئة والإشارة إليها في إعداداتك.

هل يدعم Chat MCP ميزات MCP المتقدمة مثل الأدوات والموارد؟

لا، التوثيق العام وقاعدة الشيفرة لا يتضمنان ميزات MCP المتقدمة مثل الأدوات أو الموارد. يركز Chat MCP على توفير واجهة دردشة بسيطة وقابلة للتوسيع لـ LLMs.

هل يمكنني استخدام Chat MCP مع FlowHunt؟

نعم. يمكن دمج Chat MCP كخادم MCP داخل FlowHunt عن طريق إضافة مكون MCP إلى التدفق الخاص بك وتكوينه باستخدام تفاصيل الخادم بتنسيق JSON. راجع التوثيق للخطوات الدقيقة.

جرّب Chat MCP مع FlowHunt

استكشف وتفاعل مع عدة LLMs باستخدام Chat MCP. مثالي لتعلم MCP، النماذج الأولية السريعة، وتجارب الدردشة الموحدة.

اعرف المزيد

خادم Chatsum MCP
خادم Chatsum MCP

خادم Chatsum MCP

يتيح خادم Chatsum MCP لوكلاء الذكاء الاصطناعي الاستعلام وتلخيص رسائل الدردشة من قاعدة بيانات دردشة المستخدم، مما يوفر رؤى موجزة حول المحادثات ويدعم التحليلات ضم...

3 دقيقة قراءة
AI MCP Server +4
خادم MCP أي-تشات-كمبليشنز-MCP
خادم MCP أي-تشات-كمبليشنز-MCP

خادم MCP أي-تشات-كمبليشنز-MCP

يربط خادم MCP أي-تشات-كمبليشنز-MCP بين FlowHunt وأدوات أخرى مع أي واجهة برمجة تطبيقات (API) متوافقة مع OpenAI SDK لإكمال الدردشة. يتيح التكامل السلس بين مزودي L...

4 دقيقة قراءة
AI Chatbot +5
خادم Lspace MCP
خادم Lspace MCP

خادم Lspace MCP

خادم Lspace MCP هو تطبيق مفتوح المصدر يعمل كخادم خلفي وتطبيق مستقل يطبق بروتوكول سياق النموذج (MCP). يمكّن من إنشاء معرفة دائمة وقابلة للبحث من خلال التقاط الأف...

3 دقيقة قراءة
MCP Server Open Source +3