基于 MCP 的后端服务器实现,提供资源、工具、提示模板等标准化上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(stdio、HTTP、SSE、WebSocket 等)。
一个面向大语言模型客户端的后端网关框架,能够聚合、管理多组服务器、工具、资源,并通过标准化的 JSON-RPC 通信向客户端提供上下文和外部功能。支持多种传输方式(如 HTTP、stdio、SSE),并包含资源/工具/提示的注册、渲染、执行及对话上下文管理能力。
一个将 MCP 客户端与 MCP 服务器对接的安全网关,提供资源管理、工具注册与执行、Prompt 模板渲染等功能,基于 Model Context Protocol(MCP)以 JSON-RPC 与客户端通信,支持鉴权、工具自动发现、缓存和 Guardrails 等安全保护。