基于 Model Context Protocol (MCP) 的后端服务,提供本地化的语义检索与符号工具,支持多会话并通过 JSON-RPC 风格的 MCP 接口向 LLM 客户端暴露资源、工具和提示模板等上下文能力,便于构建以上下文驱动的代码理解和推理能力。
基于 Model Context Protocol 的 MCP 服务器,为本地知识库的 AI 客户端提供资源管理、工具执行与 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信。
基于 Model Context Protocol (MCP) 的后端服务,提供本地化的语义检索与符号工具,支持多会话并通过 JSON-RPC 风格的 MCP 接口向 LLM 客户端暴露资源、工具和提示模板等上下文能力,便于构建以上下文驱动的代码理解和推理能力。
基于 Model Context Protocol 的 MCP 服务器,为本地知识库的 AI 客户端提供资源管理、工具执行与 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信。