基于 Model Context Protocol (MCP) 的服务器实现,向大语言模型客户端提供标准化的上下文服务与能力,包括资源管理、工具注册/执行以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 HTTP/HTTPS、stdio),具备会话管理、能力声明与可扩展的后端架构。
基于 Model Context Protocol (MCP) 的服务器实现,作为后端上下文服务端,向 MCP 客户端提供资源、工具、提示模板等(Resources、Tools、Prompts)的管理与执行能力,并通过 JSON-RPC 与客户端进行通信。服务器负责会话管理、能力声明、以及对多种传输协议的支持(本仓库实现了标准输入/输出的 stdio 传输模式),为 LLM 应用提供安全、可扩展的上下文服务框架,适用于 BizTalk 到 Logic Apps 的迁移场景。
基于 Model Context Protocol 的后端服务,实现对资源、工具和 Prompts 的标准化上下文提供,配合 MCP 客户端通过 JSON-RPC 进行交互,支持多传输通道(stdio/HTTP+SSE)并具备会话管理与能力声明能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息与功能,包括资源管理、工具注册/执行以及提示模板的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如标准输入输出、SSE、WebSocket)实现轻量级、高扩展性的上下文服务。
基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并具备策略执行、审计追踪与多传输协议支持的 MCP 服务器实现。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输模式,面向高安全性、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的 JSON-RPC MCP 服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)的托管与管理,并通过统一的 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输场景。仓库中包含用于 MCP 校验的工具定义、JSON-RPC 路由实现,以及在 Next.js 环境下的服务器端实现代码。该实现不仅提供客户端调用示例,还实现了服务端的鉴权、能力声明与请求分发等核心功能。<div align="center">(MCP 服务器核心功能在 src/app/api/mcp/route.ts,可处理 initialize、tools/list、tools/call、ping 等方法并返回标准 JSON-RPC 响应。)</div>
基于 Model Context Protocol (MCP) 的 ICC 配色分析与工具服务器实现,提供资源托管、工具注册与执行、以及(通过 Web UI 的 REST 接口)对外暴露的操作接口,支持通过 JSON-RPC 与客户端交互,方便对 ICC 配置进行分析、验证和管理。
基于 Model Context Protocol (MCP) 的服务器端实现,作为后端上下文服务提供者,统一托管资源(Resources)、注册与执行 Tools、以及渲染 Prompt 模板;通过 JSON-RPC 与客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket),实现会话管理和能力声明,帮助 LLM 客户端以标准化方式获取上下文、外部功能和提示模板。
基于 Model Context Protocol(MCP)实现的后端服务器,为大型语言模型客户端提供标准化的上下文服务,包含资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持标准化传输通道(如 STDIO、HTTP)。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具暴露与提示模板渲染等核心能力,通过 JSON-RPC 与 AI 客户端通信,支持多传输模式,具备会话管理与能力协商能力。
基于 Model Context Protocol 的 MCP 服务器实现,作为后端为大语言模型客户端提供标准化的上下文信息、资源数据、工具执行能力以及自定义提示模板等功能,支持 JSON-RPC 通信、会话管理和多种传输协议。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于通过 JSON-RPC 与 LLM 客户端协同,管理多设备串口资源、注册并执行工具(Tools)、以及提供动态的提示/模板渲染能力,核心在于为 AI 应用提供统一的上下文和外部功能访问接口。
基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行,以及提示模板渲染,并通过 JSON-RPC 与客户端进行标准化交互。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 RuVector 生态的一部分,负责通过标准化的 JSON-RPC 向 LLM 客户端提供上下文信息和功能。核心职责包括托管与管理 Resources(资源数据访问)、注册并执行 Tools(工具调用)、定义与渲染 Prompts(提示模板),并支持多传输协议(如 Stdio、SSE、WebSocket)。服务器端负责会话管理、能力声明与扩展性配置,适配多种客户端场景,提供安全、可扩展的上下文服务框架,支持与 RuVector 其他组件的无缝对接。
基于 Model Context Protocol 的桌面后端实现,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 在本地与远程客户端通信;包含会话管理、能力声明以及对多传输协议的支持,便于在本地环境下为 LLM 客户端提供结构化上下文与外部功能调用能力。
基于 Model Context Protocol 的后端 MCP 服务器,提供资源管理、工具注册与执行以及 Prompt 模板渲染的统一上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持在多种传输协议下工作(如 STDIO、SSE、WebSocket)。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供上下文信息与功能。核心能力包括托管与管理 Resources(数据资源)、注册与执行 Tools(外部功能)、定义与渲染 Prompts(提示模板),通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)实现安全、可扩展的上下文服务。该实现与 Skylos 项目紧密集成,提供对代码分析结果、资源访问、工具执行等能力的统一后端服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/托管、提示模板的渲染与执行,以及通过 JSON-RPC 与客户端进行标准化通信的后端服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染,通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输协议的可扩展上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,按标准化方式向 LLM 客户端提供资源、工具与 Prompt 模板,并通过 JSON-RPC 进行通信,支持多传输协议与会话管理,适用于以上下文驱动的 AI 应用场景。
基于 Model Context Protocol(MCP)的后端实现,作为后端服务器向大型语言模型客户端提供资源、工具执行能力与提示模板等上下文服务,支持会话管理、能力声明及多传输协议(如标准输入输出、SSE、WebSocket)等特性,适用于在 iOS/macOS/Xcode 项目中作为代理服务的后端服务器。
Radar 内置的 Model Context Protocol (MCP) 服务器实现,提供统一的资源数据访问、工具调用与 Prompt 渲染接口,支持通过 JSON-RPC 与 LLM 客户端通信,方便 AI 助手查询集群上下文、执行外部功能、渲染对话模板等。
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行,以及基于 Prompts 的渲染能力,通过 JSON-RPC 与 LLM 客户端进行通信;实现了一个用于 MCP 的服务器端,以便 LLM 客户端能读取资源、调用工具、以及渲染/获取提示模板等上下文信息。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具注册与提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持标准化的资源、工具与提示渲染管理。
基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供标准化的上下文服务:托管资源、注册与执行工具、定义与渲染 prompts,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 SSE、WebSocket、StdIO)以实现安全、可扩展的上下文服务框架。仓库中已有大量 MCP 相关模块和对接实现,能够与客户端协同提供资源、工具与提示等能力。对接示例包括通过 llm_client 与 MCP 平台服务器进行交互以及对 MCP 服务的自检与自动重启等能力。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的注册、管理与执行,允许通过 JSON-RPC 与任意 LLM 客户端进行上下文信息服务与外部功能调用,并支持多种传输方式与会话能力声明。
基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持通过 JSON-RPC 与 MCP 客户端通信,具备对会话、能力声明与多传输协议的支持,属于一个完整的 MCP 服务器实现(含服务器端核心、工具暴露与网络化 MCP 传输适配)。
基于 Model Context Protocol 的服务器实现示例,提供列出线程、获取线程、搜索会话、获取具体会话等工具,用于将本地对话历史以 MCP 方式暴露给 Claude Desktop 等客户端进行导出与查询。
LEMON 是一个面向临床决策工作流的全栈后端,仓库中包含一个 MCP 服务器桥接实现。该桥接通过 JSON-RPC 提供模型上下文服务,核心职责包括托管资源、注册与执行工具、定义与渲染提示模板,并支持多种传输协议(如标准 I/O、Server-Sent Events、WebSocket)。通过 MCP 桥接,客户端可以读取资源、调用工具、获取并渲染提示模板等,以实现对 LLM 的统一上下文服务与扩展能力。仓库提供 MCP 服务器入口脚本 run_mcp.py,以及 Bridge 实现模块,形成一个可运行的服务器端 MCP 实现。
基于 Model Context Protocol 的 MCP 服务器实现,为本地 Markdown 项目提供标准化的上下文服务,包括资源托管、工具注册与执行,以及对外暴露的 MCP HTTP/stdio 接口,便于与各类大语言模型或本地 AI 客户端进行深度集成。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与客户端通信的后端服务,支持多传输通道(如标准输入输出、服务器发送事件、WebSocket),具备会话管理、能力声明与策略执行能力,便于向大语言模型客户端提供标准化的上下文信息和外部功能。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和 UI 渲染等能力,使用 JSON-RPC 通过 /mcp 与客户端通信,支持 Durable Objects、WebSocket、SSE 等传输,面向 LLM 客户端的上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端服务,提供技能资源管理、工具注册与执行、以及提示模板渲染,向 LLM 客户端以标准 JSON-RPC 交互提供上下文与能力,支持多传输接口与会话管理。适合作为 AI 代理的可扩展上下文服务端。
基于 Mark Protocol 的 MCP 服务器实现,向大型语言模型客户端以标准化方式暴露读取资源、执行工具、以及渲染提示模板等能力,并通过 JSON-RPC 进行通信。
基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型(LLM)客户端提供 Onshape REST API 的上下文信息、资源和工具,支持资源管理、工具注册与执行,以及提示模板的渲染;通过 JSON-RPC 风格的接口进行交互,具备多传输通道(如 stdio、HTTP)与 OAuth 等认证能力,适合作为面向 AI 助手的上下文服务框架。
基于 Model Context Protocol (MCP) 的本地后端服务,提供资源管理、工具注册与执行,以及提示模板渲染,通过 JSON-RPC 与 LLM 客户端进行交互,并支持本地化部署与多种传输方式。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 客户端的上下文与能力提供者,托管资源、注册并执行工具、定义与渲染 Prompts,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 stdio、HTTP、WebSocket)等能力,附带可审计的合规证据与安全保障。该实现定位为 MCP 服务器端架构,适合将 LLM 客户端接入到受控的工具与资源生态中。
基于 Model Context Protocol 的 MCP 服务器实现,能够向 LLM 客户端以标准化方式提供上下文信息和功能,包括资源管理、工具注册与执行,以及 Prompt 模板的渲染与渲染结果的序列化,通过 JSON-RPC 与客户端通信,并支持流式传输等多种传输模式。该仓库实现了服务器端逻辑和对外暴露的工具/资源接口,便于与大型语言模型进行后端上下文交互与功能调用。
基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义和渲染等功能,通过 JSON-RPC 与 LLM 客户端进行上下文信息和能力的交互,同时支持多种传输协议以实现安全、可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器后端,提供对 Google Drive 的资源管理、工具执行和提示模板渲染等能力,通过 JSON-RPC 与客户端通信,支持 STDIO 传输,供大语言模型(LLM)应用读取资源、执行工具、以及获取或渲染提示。该实现包括资源读取/搜索、工具执行(如搜索、读取、下载、导出、上传等)以及可选的 Sheets 读取和资源列表示等功能。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源存储、工具注册与执行、以及 Prompt 模板的管理与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 StdIO、SSE、WebSocket),为大语言模型在应用中的上下文服务提供完整的 MCP 服务端能力。
基于 Model Context Protocol (MCP) 的本地后端实现,提供资源(Resources)托管与管理、工具(Tools)注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 的 MCP 协议与客户端通信,当前实现以 STDIO 传输为主,支持后续扩展的传输协议。
基于 Model Context Protocol (MCP) 的 FoundryVTT 后端服务器,实现资源托管、工具注册与执行,以及提示模板渲染,通过 JSON-RPC 与客户端进行通信,支持多传输协议并提供会话管理与健康诊断等能力。
基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板渲染等上下文服务,采用 JSON-RPC 风格接口进行通信,支持在本地 SQLite 存储中管理会话、记忆、工具输出等上下文信息。该仓库内含完整的 MCP 服务器实现及相关组件,可作为可运行的 MCP 服务端使用。
基于 Model Context Protocol (MCP) 的服务器实现,作为 Raven 的后端服务,通过 JSON-RPC 2.0 向 LLM 客户端暴露资源、工具和提示模板等上下文能力,支持将 Raven CLI 作为工具执行、资源与对象的查询与管理,并为 agent 与工具链提供统一的上下文服务。
基于 Model Context Protocol (MCP) 的服务器端实现,向大语言模型客户端提供资源、工具与提示模板等上下文服务,并通过 JSON-RPC 进行通信,包含认证、会话管理与多种传输能力,适用于在本地自托管环境中为智能代理提供上下文与外部功能调用能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染能力,通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 StdIO/SSE/WebSocket)以在本地模型对话中提供统一的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文信息托管和功能调用,支持会话管理与跨会话记忆,面向自动化代码与软件工程场景的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源读取、工具执行、以及上下文相关能力,能够通过 Claude Code 等 LLM 客户端以 JSON-RPC 风格进行交互,向客户端提供工作区状态、Ralph 循环状态、团队活动等资源,并暴露可执行的工具集和资源查询、记忆等能力,支持插件式扩展与多机器协作场景。
基于 Model Context Protocol 的 MCP 服务器实现,能够加载 MF 配置、注册工具、管理远程资源、渲染 MF 应用并通过 MCP 协议与客户端通信,提供多传输协议支持与安全的上下文服务框架。
基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持 JSON-RPC 通信与多传输接入,面向 LLM 客户端提供统一的上下文与功能入口。
基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持 Claude Code 的多主体协作与扩展能力。
基于 zkmin 的 MCP 服务器实现,提供资源、工具与提示模板的托管与渲染;通过 JSON-RPC 与客户端通信,支持 HTTP/SSE 传输,用于向大语言模型客户端提供可上下文化的后端能力与交互功能。
基于 Model Context Protocol (MCP) 的完整后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与 LLM 客户端通信,支持 Godot 引擎与编辑器插件的桥接执行,满足在多传输通道下的上下文服务需求。
基于 Model Context Protocol(MCP)的后端服务器,实现资源对接、工具注册/执行与提示模板渲染等能力,向大语言模型客户端提供标准化的上下文服务,通过 JSON-RPC 进行通信,支持多传输协议和会话管理,适用于多实例协同的上下文服务场景。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理以及 JSON-RPC 通信,支持标准化的上下文服务与多传输协议。
基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具、提示模板等核心接口,使用 JSON-RPC 与客户端通信,向 LLM 客户端提供资源访问、工具调用与提示渲染能力,并支持多种传输协议(stdio、SSE、streamable-http 等)。
基于 Model Context Protocol (MCP) 的后端服务集合,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持 JSON-RPC 风格通信和 STDIO/WebSocket 等传输协议,用于向 LLM 客户端暴露上下文、工具和资源等能力。
基于 Model Context Protocol 的 MCP 服务器实现,用于以标准化的 JSON-RPC 方式向 LLM 客户端提供资源、工具及上下文相关功能,采用标准输入输出(STDIN/STDOUT)进行通信,便于 Claude Code 等客户端对接执行与查询。
基于 AtomCLI 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端以标准化方式提供资源、工具、提示模版与会话管理等上下文能力,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与灵活的配置扩展。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源数据、工具执行能力和 Prompt 模板渲染等上下文服务,支持通过标准化的 JSON-RPC 方式交互,并可通过 STDIO、SSE/HTTP 等传输协议进行通信与会话管理。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端通信,支持本地 IPC 与 WebSocket 等传输方式,面向 LLM 客户端提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)的渲染等能力,允许通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持多传输协议(如流式 HTTP、StdIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。仓库内包含基于 Python 的 FastAPI 实现(以及可选的 Node.js 实现结构),实现完整的 MCP 服务端功能与实际数据源集成。
基于 Model Context Protocol 的 MCP 服务器实现,为 OpenClaw 等 LLM 客户端提供标准化的资源、工具和提示模板服务,支持 StdIO/HTTP SSE 等传输方式,通过 JSON-RPC 与客户端通信并暴露 MCP 工具与服务器信息。
基于 Model Context Protocol 的后端服务实现,提供资源托管、工具执行、以及提示模板渲染等能力,支持通过 JSON-RPC 与大语言模型客户端进行资源读取、外部功能调用、以及上下文管理等交互。服务器端提供 STDIO 传输的 JSON-RPC 服务,并可选搭建 HTTP 调试接口,适合将本地上下文服务嵌入到 AI 助手工作流中,便于对接 Kubernetes 资源、CRD、以及服务器端的 dry-run 验证等功能。
基于 Model Context Protocol 的多服务器后端实现,向 LLM 客户端提供资源、工具及可渲染的提示模板等上下文服务,通过 JSON-RPC 与客户端进行通信,支持多种传输方式,具备注册、管理、执行工具以及安全治理等能力。
基于 Model Context Protocol (MCP) 的后端服务实现,提供对资源(Resource)、工具(Tools)及提示模板(Prompts)的管理与执行能力,并通过标准的 JSON-RPC 与客户端进行通信。支持多服务器配置、OAuth 与微支付等扩展能力,能够作为 LLM 客户端的上下文与功能提供端。
一个用于 AI 代理的模型上下文协议(MCP)服务器实现,提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 与客户端进行交互。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与 Prompt 模板的注册、管理、执行与渲染,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式与会话管理,便于 LLM 客户端获取上下文信息与外部功能。
基于 Model Context Protocol(MCP)的后端服务器实现;通过标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息、资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持多传输协议(如 Stdio、SSE、WebSocket),用于构建安全、可扩展的 LLM 上下文服务平台。
基于 Model Context Protocol 的后端 MCP 服务器实现,向大语言模型客户端提供资源管理、工具注册与调用、以及可渲染的 Prompt 模板等能力,通过 JSON-RPC/流式传输等方式进行通信,并具备会话管理、认证、备份与技能管理等完整功能。
基于 Model Context Protocol 的后端服务,提供资源管理、工具注册/调用以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,并集成 Rossum API 提供安全、可扩展的上下文服务。
基于 Model Context Protocol(MCP) 的后端服务器实现,提供资源管理、工具注册与调用、以及 Prompt 模板渲染等能力,供 LLM 客户端以标准化方式获取上下文、数据与外部功能。
基于 Model Context Protocol(MCP)的 AKS 后端服务器实现,向大型语言模型(LLM)客户端以标准化方式提供 AKS 资源、工具与提示模板,支持多种传输协议(stdio、SSE、streamable-http),并实现会话管理、能力声明以及安全认证能力。
Roo Extensions 是一个面向开发者的 MCP 服务器生态,基于 Model Context Protocol 提供面向 LLM 客户端的资源管理、工具注册与执行以及可定制 Prompt 渲染等能力,核心通过 JSON-RPC 与客户端通信,并在多传输协议(如 Stdio、SSE、WebSocket)下提供会话管理、能力声明与扩展性,支持多 MCP 实例协同工作与跨机器同步。仓库中包含多个内部/外部 MCP 实例、同步系统 RooSync、SDDD 跟踪等组件,构成完整的后端上下文服务框架。
基于 Model Context Protocol(MCP)的服务端实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与 LLM 客户端通信,管理会话与能力声明,并具备多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,用于对接外部数据源、工具和上下文提示等,实现对 LLM 的上下文服务提供与编排。
基于 Model Context Protocol(MCP)的广告自动化后端实现,提供资源、工具和 Prompt 模板的托管与管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。
一个基于 Model Context Protocol (MCP) 的后端服务,加载内置与外部 SOP,将它们作为可调用的提示注册,通过 FastMCP 提供 JSON-RPC 服务供 MCP 客户端访问,用于向大型语言模型提供结构化上下文和功能性提示。
基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。
基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。
基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。
基于 Model Context Protocol 的 MCP 后端服务器,实现资源与工具的管理,并通过 JSON-RPC 接口与 LLM 客户端进行交互,支持多工具与内容生成功能。
基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。
基于 Model Context Protocol(MCP) 的后端服务,作为本地大模型应用的上下文提供者。该服务器托管与管理 Resources(数据资源)、Tools(可注册并供 LLM 调用的外部功能)以及 Prompts(Prompt 模板渲染),通过 JSON-RPC 与客户端通信,完成会话管理、能力声明以及跨传输协议(如 Stdio、SSE、WebSocket)的上下文服务,方便编辑器、IDE 以及本地模型进行组合式推理与扩展。仓库中明确包含 MCP 集成组件、启动脚本及相关文档,具备对 MCP 客户端的完整支持能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。
基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 的定义/渲染,支持通过多种传输方式进行 JSON-RPC 通信,供 LLM 客户端以标准化方式获取上下文、调用外部工具并渲染对话模板。
将 Fess 转换为基于 MCP 的服务器,提供 JSON-RPC 2.0 的接口,用于资源、工具、提示等的管理与调用
基于 Fred 平台的 MCP 服务器实现,提供以标准化方式向大语言模型客户端提供资源、工具、提示模板等上下文与能力的后端服务,并通过 JSON-RPC/多传输通道进行通信。包含知识流后端的完整 MCP 服务、以及用于快速演示的最小 MCP 服务器示例和相应部署示例。
基于 Model Context Protocol(MCP)的后端服务器,用于通过标准化的 JSON-RPC 与客户端交互,提供对 YouTube 资源的托管和访问、工具执行以及 Prompt 模板渲染等功能。
基于 Model Context Protocol (MCP) 的后端示例服务器,提供资源注册、提示渲染,以及多传输(HTTP/STDIO)支持,便于与 MCP 客户端对接与集成。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。
基于 Model Context Protocol 构建的 MCP 服务器实现集合,提供资源与工具的托管、Prompt 定义及渲染能力,并通过 JSON-RPC 与客户端通信,支持多入口输出、浏览器扩展场景,以及跨进程/跨页面的上下文服务能力。
基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*
基于 Model Context Protocol (MCP) 的服务端实现,使用 SSE 传输,提供资源与资源模板的托管、工具注册与执行,以及嵌入式 Widget 的渲染能力,作为 ChatGPT 应用的上下文与功能后端。
基于 Model Context Protocol (MCP) 的后端服务端实现,作为 MCP 服务器向大语言模型客户端提供标准化的资源管理、工具注册/执行以及 Prompt 模板渲染等能力,使用 JSON-RPC 进行通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)以满足多样化上下文服务需求。
连接LLM客户端至Google Cloud Gemini Cloud Assist API的MCP服务器,实现通过自然语言管理和排查Google Cloud环境。
在Google Apps Script环境中实现模型上下文协议(MCP)服务器,提供基础上下文服务功能。
基于 Model Context Protocol 构建的 MCP 服务器,提供访问 Acurast 资源的接口,并支持脚本部署和处理器信息查询等工具。
连接AI应用与Azure PostgreSQL数据库的MCP服务器,提供数据查询、管理工具及表结构资源访问。
该项目是一个基于 MCP 协议的服务器,允许 LLM 通过工具调用来管理和操作 Kubernetes 集群资源。
基于MCP协议的Kubernetes AI Agent,通过自然语言操作和管理Kubernetes资源。
kom 是一个 Kubernetes 操作工具,同时支持作为 MCP 服务器,提供 Kubernetes 资源管理能力,并可通过 SQL 查询资源。
基于Cloudflare Workers和Stytch的TODO应用MCP服务器,提供资源管理和工具调用能力,扩展传统应用以支持AI Agent。
Kom MCP Server基于Kom Kubernetes操作库,通过Model Context Protocol为LLM客户端提供Kubernetes资源上下文信息和管理工具。
Model Context Protocol (MCP) Python SDK 提供了一套全面的工具,用于构建兼容 MCP 协议的服务器和客户端应用,简化 LLM 应用的上下文管理。
Authed MCP服务器集成方案,为AI Agent提供安全认证的Model Context Protocol服务。
Agentics Edge Functions提供了一个基于Supabase Serverless平台的Model Context Protocol (MCP) 服务器实现,用于管理AI Agent的资源和工具。
该Ruby库提供了一个实验性的Model Context Protocol (MCP) 服务器实现,允许开发者使用Ruby构建兼容MCP协议的后端服务。
easy-mcp 是一个使用 TypeScript 开发的 MCP 服务器框架,旨在简化资源、工具和 Prompt 的定义与管理。
kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。
该项目是一个基础的MCP服务器示例,使用TypeScript SDK实现,演示了如何通过stdio传输协议提供资源列表和读取功能,适用于学习和理解MCP服务器的基本构建。
原型MCP服务器,集成Red Hat Developer Hub,提供访问和查询RHDH目录中资源、API和推理服务器的工具。
Azure MCP是一个MCP服务器,旨在桥接Claude Desktop与Azure云平台,通过自然语言实现Azure资源的管理和查询。
mcp-hfspace 是一个 MCP 服务器,它连接了 Claude Desktop 等 MCP 客户端与 Hugging Face Spaces,使得用户可以通过 Claude 等工具调用 Hugging Face Spaces 上托管的各种模型和服务,例如文生图、语音合成、视觉模型等。