标签搜索结果
基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供资源、工具和提示模板,支撑 AI 生成与上下文管理。
一个基于 Model Context Protocol (MCP) 的后端服务器实现,用于将 Antigravity IDE 通过 MCP 协议暴露给 LLM 客户端,提供工具注册、任务执行与流式响应等核心能力,同时包含一个用于 Groq 转写和 Telegram 文件传送的 MCP 工具集成。
基于 Model Context Protocol (MCP) 的后端实现,负责注册、管理与渲染 MCP 服务器、资源与工具,并通过流式交互与 MCP 客户端协同工作,提供对上下文、工具和提示模板的标准化服务。