基于 Model Context Protocol(MCP)的本地化后端服务,面向 LLM 客户端提供标准化的上下文服务。核心功能包括托管和管理资源(Knowledge Graph)、注册与执行工具(Tools)、以及定义/渲染 Prompts 的能力,服务器通过 JSON-RPC 与客户端通信,支持资源持久化、工具执行、以及基于图数据库的查询与分析。实现包含完整的服务端工具集合、MCP 请求/响应处理,以及与本地存储(Kuzu/KG 图)之间的交互逻辑,适用于本地开发环境中的 LLM 辅助工作流。}