基于 Model Context Protocol (MCP) 的后端服务实现,提供资源(任务)的托管与数据访问、工具注册与执行、以及面向 LLM 的提示/上下文渲染能力,并通过 MCP 方式与客户端进行 JSON-RPC 风格的交互,支持流式响应和多种传输场景(如 SSE)。
基于 Model Context Protocol 的可扩展后端,提供资源、工具与提示模板的 MCP 服务,通过 JSON-RPC 与 LLM 客户端交互,支持插件化视觉分析能力和多种传输方式。整个体系以 FastAPI/uv 工具链实现服务器端能力管理与会话管理。
基于 FastAPI 和 FastAPI-MCP 的 MCP 服务器开发框架,旨在帮助开发者快速构建高质量的 AI 工具。
基于 FastAPI 框架的 Agent2Agent (A2A) 协议服务器模板,用于快速构建可与 LLM 客户端交互的智能体服务后端。
Confluence Gateway 利用AI能力增强 Confluence 搜索和知识检索,未来计划提供 MCP 服务器功能。