标签搜索结果
基于 MCP 的本地 AI 代理后端实现,提供 MCP 代理、工具拦截与评估、Prompts 管理,以及 LLM 网关等功能,支持 stdio、HTTP/WS 等传输,用于向 LLM 客户端安全、标准化地提供资源、工具与提示上下文。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具拦截、策略评估、人工同意、凭证注入与审计日志等核心能力,并通过 JSON-RPC 与 MCP 客户端进行通信,支持与上游 MCP 服务器协同工作及多种交互通道(如终端、Telegram、Webhook)。