标签搜索结果
基于 Model Context Protocol 的后端实现,提供对资源、工具与 Prompt 的标准化管理与读取,并通过 JSON-RPC 与 LLM 客户端进行交互,以实现可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器,将 Hono API 端点暴露为 MCP 工具,核心实现包括资源托管、工具注册/执行、提示模板渲染,并通过 JSON-RPC 与客户端通信,支持多种传输协议(如 Stdio、SSE、WebSocket),为 LLM 客户端提供安全、可扩展的上下文服务。