基于 Model Context Protocol(MCP)的后端服务,向大型语言模型(LLM)客户端提供标准化的资源托管、工具注册与执行,以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持可扩展的传输方式与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板等的注册、管理与执行能力,并通过 JSON-RPC 形式对接 LLM 客户端,支持会话管理、能力声明以及多传输通道(如 HTTP、StdIO、SSE/WebSocket 之类扩展)的上下文服务框架。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供资源管理、工具注册/执行、Prompt 模板定义与渲染等能力,作为后端上下文服务框架供 LLM 客户端通过 JSON-RPC 进行资源访问、外部功能调用与交互模板渲染。仓库中包含多个可运行的 MCP 服务器示例,支持通过标准化接口对接 Claude/LLM 客户端。