基于 Model Context Protocol(MCP)的后端实现,提供资源(Resource)、工具(Tools)、提示模板(Prompts)的托管、注册与渲染,客户端通过 JSON-RPC 与服务器通信,支持多会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket),为LLM应用提供可扩展的上下文与功能服务。
基于 AWS SageMaker 的 MCP 服务器实现示例,提供一个可运行的 MCP 服务端,用于注册并暴露一个 tooling(工具)给 LLM 客户端通过 MCP 协议进行调用。该示例直接使用 mcp.FastMCP 库,通过 stdio 传输启动服务,并注册一个将 SageMaker 请求转发到 SageMaker 推理端的工具。