最近更新
一个基于 Model Context Protocol (MCP) 的后端服务,加载内置与外部 SOP,将它们作为可调用的提示注册,通过 FastMCP 提供 JSON-RPC 服务供 MCP 客户端访问,用于向大型语言模型提供结构化上下文和功能性提示。
基于 Model Context Protocol (MCP) 的后端服务器,提供对 NVIDIA 官方博客内容的上下文服务、向 LLM 客户端暴露检索、工具调用与提示模板渲染等能力,支持多种传输方式并实现 JSON-RPC 风格的交互。
基于 MCP(Model Context Protocol)的后端服务器实现,提供资源管理、工具执行与上下文提示渲染等能力,支持 LLM 客户端以标准化的 JSON-RPC/HTTP 方式进行通信与协作。
基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。
基于 Model Context Protocol (MCP) 的 OSS 版后端实现,提供对接 LLM 客户端的分析与边界执行能力。通过处理 MCP 请求/响应,向客户端提供工具分析、资源/记忆图(RAG)与 HealingIntent 的企业对接入口,采用 Advisory 模式以确保安全可控的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 degasser(脱气塔)设计的资源管理、工具执行(Tier 1/2/3)、以及基于 Prompts 的交互模板渲染等功能,并通过 JSON-RPC 与 LLM 客户端通信,支持后台作业、成本评估和分层仿真等能力。