在本地运行的 MCP 服务器集合,基于 Model Context Protocol (MCP) 提供标准化的资源、工具与提示模板上下文服务,并通过集成的 JSON-RPC/多传输支持与客户端通信,支持插件扩展与多工具链的协同工作。
基于 Model Context Protocol (MCP) 的本地化 AI 会话后台服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板,支持通过 JSON-RPC 与 LLM 客户端进行上下文服务交互,全部核心流程尽量在本地完成以避免云依赖。