基于 Model Context Protocol(MCP)的后端服务,提供资源、工具与提示模板的标准化访问,用于让 AI/LLM 客户端以结构化上下文与能力与本地系统进行交互,并通过 JSON-RPC 等传输协议与客户端沟通。
基于 Model Context Protocol 的后端服务,向大语言模型(LLM)客户端提供 Currents 的测试与持续集成(CI)数据的资源、工具和提示模板,并通过 JSON-RPC 进行交互,以实现上下文信息托管、工具调用以及定制的对话模板渲染。
基于 Model Context Protocol(MCP)的后端服务,提供资源、工具与提示模板的标准化访问,用于让 AI/LLM 客户端以结构化上下文与能力与本地系统进行交互,并通过 JSON-RPC 等传输协议与客户端沟通。
基于 Model Context Protocol 的后端服务,向大语言模型(LLM)客户端提供 Currents 的测试与持续集成(CI)数据的资源、工具和提示模板,并通过 JSON-RPC 进行交互,以实现上下文信息托管、工具调用以及定制的对话模板渲染。