基于 Model Context Protocol(MCP)的后端服务,提供资源托管与访问、工具注册与执行、以及可定制的 Prompt 模板渲染,统一通过 JSON-RPC 与客户端交互,并支持多种传输方式(HTTP/SSE/stdio)以实现对大语言模型客户端的上下文与功能服务。
基于 MCP 的后端服务器实现,提供资源、工具、提示模板等标准化上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(stdio、HTTP、SSE、WebSocket 等)。
基于 Model Context Protocol(Model Context Protocol, MCP) 的 Obsidian 插件后端实现,作为 MCP 服务器向本地或远程 LLM 客户端提供资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染等能力;通过 JSON-RPC 与客户端通信,支持多传输通道(如 Stdio、SSE、WebSocket),实现会话管理、能力声明,并可在多 Vault 场景下独立运行本地化上下文服务。
基于 Model Context Protocol(MCP)的后端服务实现,为 LLM 客户端提供标准化的上下文管理能力:托管资源和数据、注册并执行工具、定义并渲染 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议的扩展能力,为面向大语言模型的上下文服务提供安全、可扩展的服务端框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供标准化的上下文资源、可调用的工具(Tools)以及可渲染的 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输通道(如标准输入/输出、SSE、WebSocket 等)实现安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,能够按账户动态注册 Telegram 工具、通过 JSON-RPC 提供工具调用与资源访问,并以 URL 路径实现账户级别的多实例隔离,适用于将 LLM 客户端接入各自的通信服务工具。
基于 Model Context Protocol 的 MCP 服务器实现,用于为大语言模型客户端提供规范化的上下文服务。核心功能包括托管与管理资源(Resources)、注册与执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端进行通信。服务器负责会话管理、能力声明,支持多传输协议(例如 Stdio、SSE、WebSocket),实现对云日志的上下文化访问与功能扩展。
基于 Model Context Protocol (MCP) 的后端服务器实现,暴露资源、工具和提示模板,通过 JSON-RPC 与客户端通信,支持会话管理与可扩展的传输协议。
基于 Model Context Protocol 的 MCP 服务端,提供 ERA5 气候数据的资源管理、工具执行与 Prompt/模板渲染等能力,并通过 JSON-RPC 形式与 LLM 客户端(如 Claude Desktop、IDE 等)进行通信。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 LLM 客户端的上下文服务提供者,托管与管理资源(Resources)、注册并执行 Tools、定义与渲染 Prompt 模板。通过 JSON-RPC 与 Claude Code 等客户端进行通信,提供会话管理、能力声明,以及可扩展的传输协议支持(如 Stdio、SSE、WebSocket),实现跨后端的智能路由、 council(多后端共识)等 MCP 功能,形成稳定、可扩展的后端上下文服务框架。
基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端提供资源、工具和提示模板,并通过 JSON-RPC 等协议实现标准化的上下文服务与交互。
基于 Model Context Protocol (MCP) 的后端服务,按标准化方式向 LLM 客户端提供资源、工具与 Prompt 模板,并通过 JSON-RPC 进行通信,支持多传输协议与会话管理,适用于以上下文驱动的 AI 应用场景。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义以及通过 JSON-RPC 的 MCP 协议与 LLM 客户端交互,支持流式传输、SSE、OAuth2PKCE、会话管理与长时记忆分片系统等能力,面向 AI 记忆与上下文服务场景的可扩展后端。
基于 Model Context Protocol 的 MCP 服务器实现,围绕 Atlas 的工作管理工具提供工具执行、会话与上下文管理,支持以标准化的 JSON-RPC 形式与客户端交互,使用标准输入输出传输(stdio)来对接 Claude 相关工作流。
基于 Model Context Protocol (MCP) 的后端实现,作为 Claude Code Harness 的核心服务之一,负责托管资源(Resources)、注册及执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与 LLM 客户端进行标准化交互,提供上下文信息、数据访问与外部功能调用等能力,支持多种传输方式(如标准输入输出、SSE、WebSocket 等)以实现安全、可扩展的后端上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源、工具、提示模板的注册、执行与渲染,并通过 JSON-RPC 与 MCP 客户端进行通信,支持会话管理、能力声明,以及资产的管理与扩展。
基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具和提示模板的托管、注册与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理与多种传输协议。
基于 Model Context Protocol 的本地 MCP 服务器实现,提供资源、工具、提示模板的托管与管理,并通过 JSON-RPC 与客户端通信,支持多传输协议用于 LLM 场景下的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务集合,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持 JSON-RPC 风格通信和 STDIO/WebSocket 等传输协议,用于向 LLM 客户端暴露上下文、工具和资源等能力。
一个基于 Model Context Protocol 的服务器实现,向大语言模型提供 Appwrite API 的资源、工具与提示模板,并通过 JSON-RPC 进行通信,作为 MCP 后端服务。
基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 与客户端进行交互,支持多种传输协议、会话管理、能力声明以及外部桥接等扩展能力,用于为大语言模型应用提供可扩展的上下文服务框架。
一个用于 AI 代理的模型上下文协议(MCP)服务器实现,提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 与客户端进行交互。
基于 Model Context Protocol (MCP) 的服务器实现,提供通过 JSON-RPC 向 LLM 客户端暴露工具注册、执行与上下文交互的能力,适配本地开发与容器化部署场景。
基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。
基于 Model Context Protocol (MCP) 的后端服务端实现,作为 MCP 服务器向大语言模型客户端提供标准化的资源管理、工具注册/执行以及 Prompt 模板渲染等能力,使用 JSON-RPC 进行通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)以满足多样化上下文服务需求。