标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具注册与执行、以及 Prompt 模板渲染,提供 JSON-RPC 通信、会话管理与多传输协议支持的 MCP 服务端结构。
一个基于Go的HTTP网关服务,通过标准化MCP协议向LLM客户端提供多种AI CLI工具的上下文访问和功能调用能力
统一的模型上下文协议 (MCP) 服务器网关,实现对GitHub仓库中工具的自动发现、配置和集中访问。
下一代AI网关,兼容OpenAI协议,提供智能路由、监控、多租户管理,并支持MCP协议,托管资源和工具以增强LLM应用能力。
Higress 是一个云原生 AI 网关,支持托管 MCP 服务器,为 LLM 客户端提供统一的上下文和功能访问入口。
LangDB AI Gateway 是一个开源的企业级 AI 网关,旨在统一管理和优化 LLM 流量,并支持与 MCP 服务器集成,提供上下文信息和工具能力。
Beamlit MCP Gateway桥接Beamlit CLI与LLM客户端,通过Model Context Protocol协议,使AI模型能安全访问和利用Beamlit的功能与资源。