标签搜索结果
基于 MCP(Model Context Protocol)实现的后端服务器,聚合并暴露外部 MCP 客户端的工具与上下文,提供统一的 MCP Server 端点供 LLM 客户端使用,支持多传输通道(HTTP/SSE/STDIO)、工具执行、资源管理与提示模板,适合作为 LLM 应用的上下文服务中枢。
Obot 是一个开源的MCP网关和AI平台,提供统一的上下文管理、工具集成和LLM交互界面,支持MCP服务器的部署和管理。
集中管理和代理多个MCP服务器,为LLM客户端提供统一访问入口、会话管理和监控。
LLM交互代理和LLM提供者之间的轻量级零配置网关,支持MCP协议,提供AI代理行为的可观测性和安全防护。
一个 Python 应用,聚合多个后端 MCP 服务器的能力,通过统一的 SSE 端点提供给 LLM 客户端。