标签搜索结果
一个自托管的 MCP 网关后端,统一资源、工具和提示模板的上下文服务,通过 JSON-RPC 向 LLM 客户端提供标准化的上下文、工具执行和提示渲染能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供统一的资源管理、工具注册/执行以及 Prompt 模板的定义和渲染,能够通过 JSON-RPC 与 LLM 客户端进行交互,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理、能力声明及健康监控等扩展能力。