返回首页

"LLM网关" 标签

5 个结果

标签搜索结果

AI与计算

Wheel MCP Gateway 服务端

基于 MCP(Model Context Protocol)实现的后端服务器,聚合并暴露外部 MCP 客户端的工具与上下文,提供统一的 MCP Server 端点供 LLM 客户端使用,支持多传输通道(HTTP/SSE/STDIO)、工具执行、资源管理与提示模板,适合作为 LLM 应用的上下文服务中枢。

开发者工具

Obot

Obot 是一个开源的MCP网关和AI平台,提供统一的上下文管理、工具集成和LLM交互界面,支持MCP服务器的部署和管理。

AI与计算

MCP Pro: Model Context Protocol 服务器管理平台

集中管理和代理多个MCP服务器,为LLM客户端提供统一访问入口、会话管理和监控。

AI与计算

Invariant Gateway

LLM交互代理和LLM提供者之间的轻量级零配置网关,支持MCP协议,提供AI代理行为的可观测性和安全防护。

AI与计算

MCP 网关

一个 Python 应用,聚合多个后端 MCP 服务器的能力,通过统一的 SSE 端点提供给 LLM 客户端。