基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化方式暴露资源、工具与提示模板等能力,通过 JSON-RPC 进行通信,支持多传输通道并负责会话管理与能力声明,适配 Copilot 相关工作流的上下文服务与外部功能访问。
一个现代化、生产就绪的Model Context Protocol (MCP) 服务器,用于将Node-RED的流、节点和运行时信息暴露给大型语言模型(LLM)客户端。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化方式暴露资源、工具与提示模板等能力,通过 JSON-RPC 进行通信,支持多传输通道并负责会话管理与能力声明,适配 Copilot 相关工作流的上下文服务与外部功能访问。
一个现代化、生产就绪的Model Context Protocol (MCP) 服务器,用于将Node-RED的流、节点和运行时信息暴露给大型语言模型(LLM)客户端。