基于 Model Context Protocol 的通用后端服务器,将任意 REST/OpenAPI 规格暴露给 AI 助手,提供资源管理、工具注册、以及可定制的提示模板等能力,并通过 JSON-RPC 与客户端通信,支持多种传输与安全特性。
基于 Model Context Protocol 的 MCP 服务器实现与示例,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端交互,适配多种传输方式以为 LLM 应用提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行,以及基于 Prompts 的渲染能力,通过 JSON-RPC 与 LLM 客户端进行通信;实现了一个用于 MCP 的服务器端,以便 LLM 客户端能读取资源、调用工具、以及渲染/获取提示模板等上下文信息。