标签搜索结果
基于 Model Context Protocol (MCP) 的本地后端实现,提供对资源的内部管理、注册并执行工具(如语义搜索与索引状态查询)、并通过 JSON-RPC 与 LLM 客户端进行通信。当前实现以 stdio 传输为主,内置 semantic_search 和 index_status 两个工具,支持进度通知、增量索引和向量检索等能力,适用于本地无云、无外部依赖的 AI 代码理解与上下文服务场景。
基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供混合代码检索、增量索引、向量嵌入存储及相关分析工具等能力,支持资源、工具、提示模板等的标准化上下文服务与 JSON-RPC 通信。该仓库包含服务器端实现与完整的服务器逻辑,非仅客户端示例。