基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染的标准化上下文服务,支持 JSON-RPC 通信、会话管理,以及多传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文与能力服务。
Overlord 提供基于 Model Context Protocol (MCP) 的服务器端实现,用于向 LLM 客户端以标准化的上下文服务方式暴露资源与工具、执行工具、以及可渲染的提示模板,并通过 JSON-RPC/Socket.IO 等协议进行通信,同时对 MCP 子服务器进行托管、管理与自动重连。
基于 Model Context Protocol 的后端服务器实现,提供资源、工具与提示模板的统一上下文服务,支持多传输协议(stdio、HTTP 等)并通过 JSON-RPC 与 LLM 客户端通信,适用于 Huly 集成场景。
基于 Model Context Protocol 的 MCP 服务器实现,提供浏览器自动化相关资源与工具的注册与执行能力,并支持通过 JSON-RPC 与 LLM 客户端进行交互,提供会话管理、能力声明以及多传输协议支持,作为后端上下文服务供 LLM 使用。
基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供资源、工具和 Prompt 的标准化上下文服务,并通过 JSON-RPC 进行通信;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力,适用于将 Tana 数据和功能暴露给 AI 模型进行推理、调用和渲染。