标签搜索结果
基于 Model Context Protocol 的 MCP 服务器实现,作为 Grimoire-kit 的服务端组件,向 LLM 客户端暴露资源、工具与 Prompt 模板等上下文信息,通过 JSON-RPC 进行通信,并支持多种传输方式与会话管理。该实现具备工具暴露、自动化工具发现、会话与记忆能力等特性,能够在本地 IDE/Copilot 等客户端环境中提供统一的上下文服务框架。
基于 Model Context Protocol(MCP)的生产就绪后端实现,提供运行时工具注册、执行沙箱、资源与提示管理,并通过 JSON-RPC 与 LLM 客户端进行上下文服务与功能调用。
基于 Model Context Protocol (MCP) 的后端实现,作为通用的上下文服务网关:托管与管理资源、注册并执行工具、定义并渲染提示模板;通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明,以及多种传输协议(如 STDIO、SSE、WebSocket),并内置治理与合规机制保障上下文服务的安全、可扩展性与可追踪性。
基于 Model Context Protocol (MCP) 的多服务后端实现与管理台,提供 QAIS、ISS 等 MCP 服务器、资源/工具/提示模板的托管与渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明与多传输通道(如 STDIO、SSE、WebSocket)。
基于 AgentMesh 治理的 MCP 工具服务器,提供对 MCP 请求的策略管控、审计、信任验证与响应等核心能力,并通过 JSON-RPC 与客户端通信。