基于 MCP(Model Context Protocol)的 HTTP 流式后端服务,通过逐会话创建子进程来实现沙箱化上下文和工具调用的安全隔离,支持资源/工具的托管,以及基于 Prompts 的交互模板渲染;客户端通过 JSON-RPC 与桥接服务通信,桥接再与底层 MCP 子进程对接,采用 POST 请求+ SSE 推送的流式传输模式。该实现覆盖初始化握手、根目录(roots/list)协商、沙箱锁定以及会话终止等核心 MCP 语义,并提供多种传输模式(STDIO、HTTP 桥接、SSE 等)以支持多样化的 LLM 客户端场景。<br/>注:核心 MCP 服务器组件由 ahma_mcp 子系统提供,ahma_http_bridge 负责作为“服务器端”的桥接实现,连接客户端与 MCP 子进程。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于通过标准化的 JSON-RPC 交互向 LLM 客户端提供资源管理、工具执行、以及可渲染的提示模板等上下文服务,支持多传输协议(如标准输入输出、HTTP 流式传输等),并包含代码执行工具与文档检索工具等扩展能力。
基于 Model Context Protocol (MCP) 的后端服务器,将 Things Cloud 的数据与功能暴露给大模型/LLM 客户端,通过 JSON-RPC 提供资源管理、工具执行与模板渲染等能力,支持多用户、OAuth2.1 授权、流式传输等扩展特性,方便在云端对 Things 3 进行任务与信息管理。
基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。