标签搜索结果
本仓库实现了一个基于 Model Context Protocol(MCP)的后端服务器,用于向大语言模型(LLM)客户端以标准化方式提供上下文信息、资源、工具和提示模板的管理与执行能力。通过 JSON-RPC 与客户端通信,服务器支持资源/工具的注册与执行、提示模板渲染以及会话管理,底层可通过多种传输协议(如 HTTP)与前端或代理进行对接,适合在云环境中提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的服务器实现,用于对「GitHub 收藏仓库」进行自然语言查询,提供工具注册、资源管理与提示模板渲染等能力,并通过 MCP 协议对接 AI 客户端。该服务器以 Cloudflare Worker 形式运行,支持 API 访问与 AutoRAG 索引查询。
基于 Model Context Protocol (MCP) 的后端服务器,实现资源、对象/场景管理与工具执行等能力,面向 LLM 客户端提供标准化的上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端实现,负责注册、管理与渲染 MCP 服务器、资源与工具,并通过流式交互与 MCP 客户端协同工作,提供对上下文、工具和提示模板的标准化服务。