Membase MCP-server

AI MCP Server Decentralized Storage Persistent Memory

Kontakta oss för att vara värd för din MCP-server i FlowHunt

FlowHunt erbjuder ett extra säkerhetslager mellan dina interna system och AI-verktyg, vilket ger dig granulär kontroll över vilka verktyg som är tillgängliga från dina MCP-servrar. MCP-servrar som hostas i vår infrastruktur kan sömlöst integreras med FlowHunts chatbot samt populära AI-plattformar som ChatGPT, Claude och olika AI-redigerare.

Vad gör “Membase” MCP-server?

Membase MCP (Model Context Protocol) Server fungerar som en lättviktig, decentraliserad minnesgateway för AI-agenter och kopplar dem till Membase för säkert, beständigt och verifierbart multi-session minne. Drivs av Unibase och låter AI-assistenter ladda upp och hämta konversationshistorik, interaktionsregister och kunskap, vilket säkerställer agentkontinuitet, personalisering och spårbarhet. Genom att integrera med Membase-protokollet möjliggör servern sömlös lagring och hämtning av minnesdata från Unibase decentraliserade nätverk, och stödjer användningsfall där beständigt, manipuleringssäkert minne är avgörande för AI-drivna arbetsflöden.

Lista över promptar

Inga promptmallar nämns i repot.

Logo

Redo att växa ditt företag?

Starta din kostnadsfria provperiod idag och se resultat inom några dagar.

Lista över resurser

Inga explicita MCP-resurser beskrivs i repot.

Lista över verktyg

  • get_conversation_id: Hämtar aktuellt konversations-ID, vilket gör att agenter kan identifiera eller referera till pågående session.
  • switch_conversation: Växlar aktiv kontext till en annan konversation, vilket stödjer arbetsflöden med flera sessioner.
  • save_message: Lagrar ett meddelande eller minne i aktuell konversation och säkerställer beständighet och spårbarhet.
  • get_messages: Hämtar de senaste n meddelandena från aktuell konversation, så att agenter kan minnas senaste kontext eller historik.

Användningsområden för denna MCP-server

  • Beständigt konversationsminne: Lagra och återhämta hela konversationshistoriker och säkerställ kontinuerlig kontext för AI-agenter över sessioner.
  • Hantering av flera sessioner: Växla sömlöst mellan olika konversationer, vilket möjliggör att en agent hanterar flera användare eller projekt.
  • Verifierbara granskningsspår: Alla interaktioner lagras på ett decentraliserat nätverk, vilket gör dem manipuleringssäkra och spårbara för efterlevnad eller felsökning.
  • Personalisering: Hämta tidigare användarinteraktioner för att anpassa svar och åtgärder baserat på historiska preferenser.
  • Kunskapsbevarande: Spara och hämta kunskapsfragment eller beslut och bygg en kunskapsbas över tid för smartare AI-beteenden.

Så här sätter du upp det

Windsurf

  1. Kontrollera att förutsättningar är installerade (t.ex. Python, uv-runner).
  2. Klona repot:
    git clone https://github.com/unibaseio/membase-mcp.git
  3. Leta upp din Windsurf-konfigurationsfil.
  4. Lägg till Membase MCP-serverns konfiguration:
{
  "mcpServers": {
    "membase": {
      "command": "uv",
      "args": [
        "--directory",
        "path/to/membase-mcp",
        "run", 
        "src/membase_mcp/server.py"
      ],
      "env": {
        "MEMBASE_ACCOUNT": "ditt konto, 0x...",
        "MEMBASE_CONVERSATION_ID": "ditt konversations-id, ska vara unikt",
        "MEMBASE_ID": "ditt subkonto, valfri sträng"
      }
    }
  }
}
  1. Spara och starta om Windsurf för att tillämpa ändringarna.

Säkra API-nycklar:
Använd miljövariabler i env-blocket för att hålla uppgifterna säkra.

Claude

  1. Installera beroenden (uv-runner och Python).
  2. Klona membase-mcp-repot.
  3. Redigera Claudes MCP-konfigurationsfil.
  4. Infoga följande JSON-snutt:
{
  "mcpServers": {
    "membase": {
      "command": "uv",
      "args": [
        "--directory",
        "path/to/membase-mcp",
        "run", 
        "src/membase_mcp/server.py"
      ],
      "env": {
        "MEMBASE_ACCOUNT": "ditt konto, 0x...",
        "MEMBASE_CONVERSATION_ID": "ditt konversations-id, ska vara unikt",
        "MEMBASE_ID": "ditt subkonto, valfri sträng"
      }
    }
  }
}
  1. Spara och starta om Claude.

Obs! Spara känslig information som miljövariabler.

Cursor

  1. Installera förutsättningar (Python, uv).
  2. Klona membase-mcp-repot.
  3. Leta upp och öppna din Cursor-konfigurationsfil.
  4. Lägg till servern enligt nedan:
{
  "mcpServers": {
    "membase": {
      "command": "uv",
      "args": [
        "--directory",
        "path/to/membase-mcp",
        "run", 
        "src/membase_mcp/server.py"
      ],
      "env": {
        "MEMBASE_ACCOUNT": "ditt konto, 0x...",
        "MEMBASE_CONVERSATION_ID": "ditt konversations-id, ska vara unikt",
        "MEMBASE_ID": "ditt subkonto, valfri sträng"
      }
    }
  }
}
  1. Spara och starta sedan om Cursor.

Cline

  1. Installera beroenden (uv, Python).
  2. Klona repot.
  3. Öppna Clines konfigurationsfil.
  4. Lägg till serverkonfigurationen:
{
  "mcpServers": {
    "membase": {
      "command": "uv",
      "args": [
        "--directory",
        "path/to/membase-mcp",
        "run", 
        "src/membase_mcp/server.py"
      ],
      "env": {
        "MEMBASE_ACCOUNT": "ditt konto, 0x...",
        "MEMBASE_CONVERSATION_ID": "ditt konversations-id, ska vara unikt",
        "MEMBASE_ID": "ditt subkonto, valfri sträng"
      }
    }
  }
}
  1. Spara och starta om Cline.

Säkra API-nycklar:
Alla känsliga uppgifter bör skickas i env-objektet som visas ovan för att undvika hårdkodning.


Så använder du denna MCP i flöden

Använd MCP i FlowHunt

För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde börjar du med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:

FlowHunt MCP flow

Klicka på MCP-komponenten för att öppna konfigurationspanelen. I sektionen för systemets MCP-konfiguration, lägg in dina MCP-serveruppgifter med detta JSON-format:

{
  "MCP-name": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

När det är konfigurerat kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner. Kom ihåg att ändra “MCP-name” till det faktiska namnet på din MCP-server (t.ex. “github-mcp”, “weather-api” etc.) och byt ut URL:en mot din egen MCP-server-URL.


Översikt

SektionTillgänglighetDetaljer/Noteringar
Översikt
Lista över promptarInga återanvändbara promptmallar tillhandahålls
Lista över resurserInga explicita MCP-resurser listade
Lista över verktygget_conversation_id, switch_conversation, save_message, get_messages
Säkra API-nycklarAnvänder miljövariabler i konfigurationen
Samplingstöd (mindre viktigt vid utvärdering)Inte nämnt

Baserat på tillgänglig information tillhandahåller Membase MCP-server kärnminnesverktyg och tydliga installationsinstruktioner, men saknar promptmallar, explicita MCP-resurser och omnämnande av sampling- eller roots-stöd. Detta gör den funktionell för minnescentrerade arbetsflöden men begränsad i utbyggbarhet och avancerade MCP-funktioner. Sammantaget är den praktisk men grundläggande.


MCP-poäng

Har LICENS⛔ (Ingen licensfil finns)
Har åtminstone ett verktyg
Antal forkar4
Antal stjärnor4

Vanliga frågor

Kom igång med Membase MCP-server

Stärk dina AI-flöden med decentraliserat, manipuleringssäkert minne. Installera Membase MCP-server i FlowHunt och lås upp avancerad multi-session funktionalitet.

Lär dig mer

mem0 MCP-server
mem0 MCP-server

mem0 MCP-server

mem0 MCP-server kopplar AI-assistenter till strukturerad lagring, hämtning och semantisk sökning för kodsnuttar, dokumentation och bästa praxis inom kodning. De...

4 min läsning
MCP Server AI +4
Memgraph MCP Server-integration
Memgraph MCP Server-integration

Memgraph MCP Server-integration

Memgraph MCP Server fungerar som en brygga mellan grafdatabasen Memgraph och stora språkmodeller, vilket möjliggör realtidsåtkomst till grafdata och AI-drivna a...

4 min läsning
AI MCP +5
Rememberizer MCP-server
Rememberizer MCP-server

Rememberizer MCP-server

Rememberizer MCP-servern fungerar som en brygga mellan AI-assistenter och kunskapshantering, möjliggör semantisk sökning, enhetlig dokumenthämtning och team-sam...

4 min läsning
AI Knowledge Management +4