基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供离线文档资源管理、工具执行接口以及提示模板渲染,供大模型客户端在本地环境中进行高效、私有的上下文查询与交互。
基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。
基于 Model Context Protocol 的 MCP 服务器,为本地知识库的 AI 客户端提供资源管理、工具执行与 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信。
该项目是一个MCP服务器,通过语义搜索和RAG技术,使AI助手能够访问和检索用户的Apple Notes内容,实现本地知识库的集成。
MCP Apple Notes 是一个本地运行的MCP服务器,允许AI助手(如Claude)通过语义搜索和RAG访问和利用用户的Apple Notes数据。
Files Vector Store 是一个 MCP 服务器,它能够监控指定目录的文件,并对其内容进行语义索引,从而为 LLM 提供本地文件的语义搜索能力。