基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管、工具注册与执行,以及可渲染的提示/模板等能力,帮助 LLM 客户端以标准化的 JSON-RPC 方式获取上下文、调用外部功能并渲染提示。仓库内包含多种 MCP 服务器实现(如 stdio 传输与 SSE 传输)的后端实现,具备会话管理、JWT/鉴权、跨传输协议的支持,以及相应的单元测试与示例,用于将 LCYT 的字幕/前端服务与 LLM 集成。
基于 Model Context Protocol (MCP) 的 Helm MCP 服务器实现,提供以标准化 JSON-RPC 方式向 LLM 客户端暴露 Helm 资源、工具与提示模板,并支持多传输模式(stdio、HTTP、SSE)与可扩展的容错与安全特性。
基于模型上下文协议(MCP)的后端服务,提供 Confluence 页面搜索与文本读取等功能,并通过 MCP 标准向大型语言模型(LLM)客户端暴露工具与资源,以便在对话系统中获取上下文数据与外部能力。
基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板的管理与执行能力,并通过 JSON-RPC/流式接口为 LLM 客户端提供上下文和功能服务。