基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端通信;支持会话管理、能力声明與多传输协议接入,形成可扩展的 LLM 上下文服务框架。该仓库包含完整的 MCP 服务端实现、客户端适配、工具与资源注册,以及相关的测试与示例。注:文档和示例中的实现细节来自代码库中的 mcp 目录及相关模块。
基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行、以及提示模板渲染,通过 JSON-RPC 与客户端通信,支持 HTTP、stdio 等传输方式,供 LLM 客户端安全、可扩展地获取上下文信息与功能。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板等的注册、管理与执行能力,并通过 JSON-RPC 形式对接 LLM 客户端,支持会话管理、能力声明以及多传输通道(如 HTTP、StdIO、SSE/WebSocket 之类扩展)的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化的 JSON-RPC 接口向 LLM 客户端提供 Recharge API 的资源、工具和提示模板等上下文服务,并通过标准传输(如 stdio)与客户端进行通信。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供资源管理、工具注册/执行、Prompt 模板定义与渲染等能力,作为后端上下文服务框架供 LLM 客户端通过 JSON-RPC 进行资源访问、外部功能调用与交互模板渲染。仓库中包含多个可运行的 MCP 服务器示例,支持通过标准化接口对接 Claude/LLM 客户端。