基于 Model Context Protocol 构建的 MCP 服务器,提供 Helix/Azure DevOps API 的资源、工具和提示模板给大型语言模型代理,支持跨进程缓存、HTTP/StdIO 传输等上下文服务能力。
基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。