标签搜索结果
基于 Model Context Protocol (MCP) 的本地后端实现,用于向 LLM 客户端(如 Claude Desktop)提供规范化的上下文服务。核心功能包括资源(Documents、Workspace 状态等)管理、工具(如全文检索、读取文件、索引与同步等)注册与执行,以及提示/工作流程定义。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并附带自动同步与文件监控能力,适合本地离线、可扩展的知识上下文服务场景。
基于模型上下文协议(MCP)的后端服务,提供常驻的几何记忆上下文、工具调用能力和可渲染的提示模板,通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输模式并实现会话管理及能力声明。
基于 Model Context Protocol (MCP) 的后端服务,提供跨会话记忆的资源管理、工具注册与调用,以及提示模板的渲染能力。通过标准输入输出的 JSON-RPC 与 LLM 客户端进行通信,支持本地向量检索、嵌入模型、会话持久化以及多项目隔离等功能,适合作为 AI 编程助手的上下文和记忆后端。
为AI智能体提供持久化、结构化的个人数据记忆,支持文档和对话双路径数据摄入,通过MCP协议为ChatGPT、Claude、Cursor等平台提供统一的记忆访问接口