标签搜索结果
基于 Model Context Protocol (MCP) 的自托管后端服务,向 LLM 客户端以标准化方式提供资源、可执行工具以及可渲染的提示模板;通过 JSON-RPC 与 SSE 等传输实现对话上下文管理、工具调用和上下文模板渲染,支持会话管理、限流与多租户场景。实现了 MCP 的核心端到端能力,可与 Claude Code、Cursor、Windsurf 等 MCP 客户端无缝对接。
基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板的注册、执行和渲染能力;通过 JSON-RPC 与 MCP 客户端通信,支持本地密钥管理、会话管理、策略审核和完整审计日志,适用于在本地或受控环境中为 AI Agent 提供上下文和外部 API 访问能力。