标签搜索结果
基于 Model Context Protocol 的本地化后端服务器,提供代码依赖图的资源、工具与 Prompts;通过 JSON-RPC 与 LLM 客户端交互,支持单仓库或多仓库模式,提供资源访问、工具执行、Prompt 渲染等能力,便于在 AI 代理中查询代码结构、执行外部功能和获取定制化对话模板。
基于模型上下文协议(Model Context Protocol,MCP)的后端服务器实现,向 LLM 客户端提供技能资源、工具注册与执行以及提示模板的定义与渲染,支持 JSON-RPC 调用、会话管理与多传输协议接入。
基于 Claude Code Workflow 的 MCP 服务器实现,使用 JSON-RPC 与客户端通信,核心职责是托管资源、注册工具、定义并渲染 Prompt 模板,为 LLM 客户端提供可扩展的上下文服务。