基于 MCP 协议的异步后端实现,为 LLM 客户端提供 Azure AI Foundry 的模型调用、资源管理与提示渲染能力,并通过标准化的 JSON-RPC 交互实现工具执行与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的托管与通过 JSON-RPC 与客户端通信的后端服务。
连接Azure AI Agents到MCP客户端,为LLM应用提供Azure AI Foundry的智能代理服务。
基于 MCP 协议的异步后端实现,为 LLM 客户端提供 Azure AI Foundry 的模型调用、资源管理与提示渲染能力,并通过标准化的 JSON-RPC 交互实现工具执行与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的托管与通过 JSON-RPC 与客户端通信的后端服务。
连接Azure AI Agents到MCP客户端,为LLM应用提供Azure AI Foundry的智能代理服务。