基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,提供向 MCP 客户端暴露 HTTP/StreamableHTTP 传输的 MCP 接口,以及可选的 stdio 传输,支持从浏览器端抓取的组件上下文实时供 Claude Code 等 MCP 兼容代理读取,并提供多种 MCP 工具(读取元素上下文、撤销/重做、会话历史、可及性与渲染分析等)的访问入口。
基于 Model Context Protocol (MCP) 的本地后端实现,提供 JSON-RPC 和 HTTP REST 接口,用于向 LLM 客户端以标准化方式提供资源管理、工具注册/执行及提示渲染等能力,并支持会话管理、跨传输协议通信(如 stdio、HTTP)、以及仪表盘等扩展功能。
基于 Model Context Protocol (MCP) 的后端实现,承担资源、工具、 Prompt 模板等的托管与管理,并通过 JSON-RPC 与 LLM 客户端进行通信,提供会话管理、能力声明、以及多传输协议支持(HTTP、SSE、WebSocket)的上下文服务框架,供前端仪表盘、Captain 编排与代理执行组件协同工作。
基于AWS Lambda的serverless MCP服务器,通过HTTP为LLM应用提供工具能力。
基于AWS Lambda的轻量级MCP服务器,通过Serverless Framework快速部署,提供工具注册和执行能力,简化LLM应用上下文管理。