基于 Model Context Protocol(MCP)的后端服务器,用于向 AI 客户端提供代码仓库的上下文信息、资源访问、工具注册与执行、以及可渲染的提示模板。通过 JSON-RPC/HTTP 或 STDIN/SSE 等传输,支持多仓库场景、会话管理和能力声明,适用于对代码仓库进行上下文化的 AI 编码/分析任务。
基于 Model Context Protocol (MCP) 的后端代码仓库索引服务,提供聚合的资源、工具和提示模板,支持多仓库、AGENTS.md 驱动的域上下文映射,以及通过 MCP JSON-RPC 进行对话式查询与操作的服务器端实现(含 HTTP API 和 STDIO 两种传输方式)。
基于 Model Context Protocol (MCP) 的后端服务器,提供持久化代码索引、工具注册与执行,以及提示模板管理,能够通过 MCP 客户端以标准化的 JSON-RPC 进行读取资源、调用工具和获取 Prompt 的能力,面向 AI 助手(如 Claude Code、Gemini 等)提供结构化的上下文与功能服务。
基于 Claude Code 的 MCP 服务器实现,结合 Rust 的 ast-index 索引器与 legacy Python MCP 服务端,为 LLM 客户端提供资源、工具与提示模板等上下文服务的统一入口与通信协议。
基于 Model Context Protocol (MCP) 的服务器端实现,用于对代码项目进行上下文分析、向量化检索和外部工具调用的统一管理。通过 JSON-RPC 风格的 MCP 客户端通信,服务器端负责会话管理、能力声明,以及资源(向量/元数据)的托管、工具执行和 Prompt 模板的渲染。实现了完整的 MCP 服务端逻辑(8 个工具),并使用 ChromaDB 进行向量存储、OpenAI 模型进行代码分析与嵌入生成,提供本地 STDIO 传输的运行能力,同时包含一个可选的 Web 管理端供查看和管理索引数据。该实现可直接作为 MCP 服务器使用或作为开发参考与扩展。