标签搜索结果
基于 Horizons 的 MCP 网关实现,提供以 JSON-RPC 2.0 进行跨 MCP 服务的请求分发与路由能力,支持标准传输(stdio、HTTP),实现多租户场景的工具调用与资源管理的入口网关。通过配置可将客户端的 MCP 请求路由到一个或多个子 MCP 服务器,具备工具调用、配置管理和工具发现等核心功能。
基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具与 Prompt 的管理与执行,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多工作区、实时通知与会话管理。
基于 Model Context Protocol 的后端服务器实现,向大语言模型客户端提供资源管理、工具注册与执行、以及可定制的 Prompt 模板渲染等上下文服务;通过 JSON-RPC 进行通信,支持会话管理、能力声明、并发执行、热加载与观测等特性,具备完整的服务端框架与扩展能力。
基于 Model Context Protocol (MCP) 的后端服务实现,作为 LLM 客户端的上下文与能力提供者。该仓库实现了 MCP 服务器核心功能,包括资源(Resources)的托管与访问、工具(Tools)的注册与执行、Prompt 模板的定义与渲染,以及通过 JSON-RPC 与客户端的通信,支持多种传输通道(如标准输入输出、SSE、WebSocket),并具备会话管理与能力声明能力,用于提供安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的 ROS2 服务端实现,提供对 ROS2 资源(如主题、节点、服务)的发现、查询与操作工具,并通过 MCP 协议向客户端暴露这些能力,支持以标准化的 JSON-RPC 形式进行交互。
基于 Azure 函数和 API 管理构建的远程 MCP 服务器,提供工具注册、执行和安全访问控制能力。
基于OpenRPC的MCP服务器,提供JSON-RPC调用和发现工具,增强LLM与外部JSON-RPC服务交互的能力。