标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端通信,支持多种传输协议用于 LLM 上下文服务。
Aura 是基于 Rust 的 MCP 服务器实现,提供资源、工具和提示的标准化管理与执行,并通过 JSON-RPC 在标准输入输出等传输下与 LLM 客户端通信,支持多种传输协议以提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供跨用户会话的资源、工具与提示模板等上下文服务,并通过 Relay 数据库实现多用户场景的查询与共享,采用 JSON-RPC/SSE 的通信方式对接 LLM 客户端。
基于 Model Context Protocol (MCP) 的后端服务器,聚合 GitHub、Datadog、Linear、Sentry、Slack、Metabase 等多种集成,向大语言模型客户端提供上下文资源、可注册执行的工具,以及可渲染的 Prompt 模板,并通过 JSON-RPC 框架实现统一的 MCP 服务入口和网页配置界面。
基于 Model Context Protocol (MCP) 的服务器端实现,将 Mage Remote Run CLI 的命令注册为 MCP 工具,通过 TCP/STDIO 或 SSE 支持的传输协议向 LLM 客户端提供资源、工具执行能力与 Prompts 渲染等上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,向支持 MCP 的大语言模型客户端提供视频上下文资源、工具与提示模板,通过 JSON-RPC 进行统一通信,并可通过标准化传输协议(如_stdio、SSE、WebSocket)实现会话管理与能力声明,作为视频理解型 LLM 应用的上下文服务框架。
基于 MCP(Model Context Protocol)的多后端文件系统服务器实现,提供后端注册、工具化查询、文件读写、目录操作、跨后端拷贝等能力,并通过 MCP 协议对外暴露以供 LLM 客户端调用与编排。
基于 Model Context Protocol 的 MCP 服务器端后端,提供资源与工具的托管、会话管理、以及与 MCP 客户端的 JSON-RPC 通信,辅以网关、调度、工具聚合等模块实现对 MCP 服务的弹性编排与扩展。