基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化方式暴露资源、工具与提示模板,支持多传输协议(如 STDIO、HTTP/WS)、会话管理与权限控制,完成资源托管、工具执行与提示渲染的完整 MCP 服务端功能。
基于 Model Context Protocol (MCP) 的后端服务,提供工具注册与执行、资源管理以及与客户端的 JSON-RPC 通信能力,支持多种传输场景并可在无服务器环境中以内存传输方式运行,适用于将 LLM 与外部功能无缝对接的后端上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源托管、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 stdio、SSE、WebSocket),实现自托管的上下文服务框架。
一个基于模型上下文协议(MCP)的后端服务器,提供结构化的上下文记忆、资源管理、工具注册与执行,以及 Prompt 模板渲染,面向 AI 客户端以 JSON-RPC 方式进行交互。