基于 Model Context Protocol (MCP) 的本地化 AI 会话后台服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板,支持通过 JSON-RPC 与 LLM 客户端进行上下文服务交互,全部核心流程尽量在本地完成以避免云依赖。
基于模型上下文协议(MCP)的后端服务器实现,提供对知识 vault 的资源管理、工具调用与提示模板渲染等能力,通过 JSON-RPC 方式与 LLM 客户端交互,支持标准的文本/向量检索、注释日志、手动与自动化操作等场景,并以标准的 stdio 传输启动 MCP 服务,方便与 Claude Code 等工具链对接。