基于 Model Context Protocol (MCP) 的高性能后端,将 Obsidian 符合语义的笔记库暴露为可被大语言模型访问的上下文服务,核心职责包括托管资源、注册与执行工具、以及定义与渲染 Prompt 模板,支持多 Vault 管理与多传输协议。实现了标准化的 JSON-RPC 通信,便于 LLM 客户端进行读取、调用外部工具、以及获取 Prompts 的能力声明与渲染。
MegaMem 整合 Obsidian 插件与时序知识图谱,提供基于 Model Context Protocol(模型上下文协议)的 MCP 服务器端实现,支持资源管理、工具注册与执行、以及 Prompt 模板渲染,便于将 vault 内容以标准化上下文服务暴露给 LLM 客户端。
基于 Model Context Protocol (MCP) 的后端实现,作为 AI 客户端的上下文服务网关,提供资源管理、工具注册与调用、以及基于 BrainQuery 的 Prompt/查询渲染与执行,并通过 Lightning 微支付对工具调用进行结算。该服务器以 TheBrain 云端知识图谱为核心数据源,支持多种工具与推理场景,适合作为 LLM 的上下文服务后端。
基于 GraphRAG 的 MCP 服务器实现,提供本地与全局知识图谱搜索工具,通过 MCP 协议对外暴露查询能力,支持多工具调用、Inspector 调试以及 HTTP/SSE 传输。
基于 Model Context Protocol (MCP) 的 Rijksmuseum MCP+ 后端,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具与提示模板,支持多种传输模式(STDIO、HTTP),并整合 Rijksmuseum 的元数据与向量检索能力以实现艺术品上下文服务。
基于 Model Context Protocol (MCP) 的后端知识图谱服务器实现,提供将资源、工具和提示模板以 MCP JSON-RPC 方式暴露给 Claude Desktop 等 MCP 客户端,并支持同步/异步工具执行、管理员模式下的危险工具控制、以及跨传输协议的上下文服务能力。
基于 Model Context Protocol 的本地 MCP 服务器,提供内存管理、知识图谱、工具执行、提示模板等功能,并可通过标准的 JSON-RPC(stdio/HTTP/SSE)与 LLM 客户端通信。
RhizomeDB MCP服务器是一个基于Delta-CRDTs超图数据库的后端,为AI Agent提供持久化知识图谱服务,支持数据存储、查询和复杂关系管理。
为编码智能体提供Actor-Critic驱动的上下文服务,利用知识图谱增强记忆与决策能力。
基于Model Context Protocol,为LLM客户端提供Apache AGE图数据库的上下文访问和操作能力。
Cyberon 是一个基于 Flask 的 Web 应用程序,同时也是一个 Model Context Protocol (MCP) 服务器,用于探索和可视化知识本体,并为 LLM 客户端提供上下文服务。
NebulaGraph MCP Server是一个基于Model Context Protocol的服务器,为LLM应用提供访问NebulaGraph图数据库的能力,支持图数据查询、路径查找和邻居检索等功能。
mcp-elastic-memory仓库是一个基于Elasticsearch构建的可扩展知识图谱MCP服务器实现,为LLM应用提供结构化知识存储、检索和管理能力。