标签搜索结果
基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、提示模板等上下文信息,并通过 JSON-RPC(以 STDIO 传输为主)与 Claude Code 客户端进行交互,支持会话管理与能力声明,能够向 LLM 客户端暴露多种工作工具与上下文资源。该仓库中包含完整的服务端实现和对外暴露的 MCP 工具集合。
基于模型上下文协议(MCP)的后端服务器,实现资源管理、工具注册与执行,以及 Prompt 模板渲染,面向对话式大语言模型提供标准化的上下文与功能服务。
Spacebot 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力。通过 MCP 标准协议与客户端进行 JSON-RPC 通信,支持本地 stdio 与 HTTP 传输,并在配置中实现对 MCP 服务器的注册、监控与热重载,作为多进程/多任务 AI 应用的上下文与工具服务后端。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(资源管理与数据访问)、工具(外部功能注册与调用)、以及提示模板(Prompts)的标准化提供,采用 JSON-RPC 形式与客户端通信,具备会话管理、能力声明,并可扩展多种传输方式。
基于 Model Context Protocol (MCP) 的服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、Prompts 定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket),用于为大模型/LLM 客户端提供标准化的上下文信息和功能访问。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及模板渲染等能力,通过 JSON-RPC 与客户端通信,支持多提供者协同与并行执行的后端上下文服务。
基于 Model Context Protocol 的 UNCASE 后端实现,使用 FastMCP 将 seeds、tools、prompts 等上下文资源以 JSON-RPC 风格暴露给 LLM 客户端,并支持工具执行、模板渲染等功能的 MCP 服务器实现。
基于模型上下文协议(MCP)的后端服务器,向语言模型客户端以标准化的 JSON-RPC 形式暴露 Phrase Strings 与 TMS 的资源、工具和提示模板,支持多产品运行、会话管理和多传输协议。
基于 Model Context Protocol (MCP) 的后端服务器,负责托管资源、注册与执行工具、定义并渲染可定制的 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端进行标准化的上下文服务交互,支持多种传输协议以提供安全、可扩展的后端能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供面向大语言模型的资源管理、工具调用与提示渲染能力;仓库包含多个独立的 MCP 服务模块(如 Distiller、NCEMPy、4DCamera 等),通过 FastMCP 框架实现工具注册、资源访问与 JSON-RPC 风格的请求响应,支持通过多种传输方式进行客户端通信。
基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具与提示模板的托管、注册与渲染,并通过 JSON-RPC 风格接口与客户端交互,支持会话管理、能力声明与多种传输方式(如 StdIO、SSE、WebSocket)。