基于 Model Context Protocol 的 MCP 服务端实现,提供通过 HTTP 传输的工具执行、资源访问与会话管理能力,负责注册并执行来自 LLM 客户端的工具调用,以及通过内置的队列对并发请求进行管理与调度,最终将结果以 JSON-RPC 风格响应返回给客户端。
基于 Model Context Protocol 的可扩展后端,提供资源、工具与提示模板的 MCP 服务,通过 JSON-RPC 与 LLM 客户端交互,支持插件化视觉分析能力和多种传输方式。整个体系以 FastAPI/uv 工具链实现服务器端能力管理与会话管理。