基于 Model Context Protocol 的后端服务,实现对资源、工具和 Prompts 的标准化上下文提供,配合 MCP 客户端通过 JSON-RPC 进行交互,支持多传输通道(stdio/HTTP+SSE)并具备会话管理与能力声明能力。
基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行,以及提示模板渲染,并通过 JSON-RPC 与客户端进行标准化交互。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 RuVector 生态的一部分,负责通过标准化的 JSON-RPC 向 LLM 客户端提供上下文信息和功能。核心职责包括托管与管理 Resources(资源数据访问)、注册并执行 Tools(工具调用)、定义与渲染 Prompts(提示模板),并支持多传输协议(如 Stdio、SSE、WebSocket)。服务器端负责会话管理、能力声明与扩展性配置,适配多种客户端场景,提供安全、可扩展的上下文服务框架,支持与 RuVector 其他组件的无缝对接。
基于 Model Context Protocol 的桌面后端实现,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 在本地与远程客户端通信;包含会话管理、能力声明以及对多传输协议的支持,便于在本地环境下为 LLM 客户端提供结构化上下文与外部功能调用能力。
基于 Model Context Protocol(MCP)的后端实现,作为后端服务器向大型语言模型客户端提供资源、工具执行能力与提示模板等上下文服务,支持会话管理、能力声明及多传输协议(如标准输入输出、SSE、WebSocket)等特性,适用于在 iOS/macOS/Xcode 项目中作为代理服务的后端服务器。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具注册与提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持标准化的资源、工具与提示渲染管理。
基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供标准化的上下文服务:托管资源、注册与执行工具、定义与渲染 prompts,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 SSE、WebSocket、StdIO)以实现安全、可扩展的上下文服务框架。仓库中已有大量 MCP 相关模块和对接实现,能够与客户端协同提供资源、工具与提示等能力。对接示例包括通过 llm_client 与 MCP 平台服务器进行交互以及对 MCP 服务的自检与自动重启等能力。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的注册、管理与执行,允许通过 JSON-RPC 与任意 LLM 客户端进行上下文信息服务与外部功能调用,并支持多种传输方式与会话能力声明。
基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持通过 JSON-RPC 与 MCP 客户端通信,具备对会话、能力声明与多传输协议的支持,属于一个完整的 MCP 服务器实现(含服务器端核心、工具暴露与网络化 MCP 传输适配)。
LEMON 是一个面向临床决策工作流的全栈后端,仓库中包含一个 MCP 服务器桥接实现。该桥接通过 JSON-RPC 提供模型上下文服务,核心职责包括托管资源、注册与执行工具、定义与渲染提示模板,并支持多种传输协议(如标准 I/O、Server-Sent Events、WebSocket)。通过 MCP 桥接,客户端可以读取资源、调用工具、获取并渲染提示模板等,以实现对 LLM 的统一上下文服务与扩展能力。仓库提供 MCP 服务器入口脚本 run_mcp.py,以及 Bridge 实现模块,形成一个可运行的服务器端 MCP 实现。
基于 Model Context Protocol 的后端服务器实现,提供资源、工具与提示模板的统一上下文服务,支持多传输协议(stdio、HTTP 等)并通过 JSON-RPC 与 LLM 客户端通信,适用于 Huly 集成场景。
基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义和渲染等功能,通过 JSON-RPC 与 LLM 客户端进行上下文信息和能力的交互,同时支持多种传输协议以实现安全、可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现;将 Quorum 的多AI协同推理能力以标准化的 JSON-RPC 服务形式暴露给 MCP 客户端,支持资源/工具/提示模板的管理与渲染,并通过标准化接口与客户端进行通信。
基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供统一的资源管理、工具注册与调用,以及可定制的 Prompt 渲染能力;通过 JSON-RPC 2.0 进行通信,支持多种传输协议(如 stdio、SSE、WebSocket),以实现安全、可扩展的上下文服务。
基于 zkmin 的 MCP 服务器实现,提供资源、工具与提示模板的托管与渲染;通过 JSON-RPC 与客户端通信,支持 HTTP/SSE 传输,用于向大语言模型客户端提供可上下文化的后端能力与交互功能。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理以及 JSON-RPC 通信,支持标准化的上下文服务与多传输协议。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Avanza 公共市场数据的资源、工具与提示模板,通过 JSON-RPC 与 LLM 客户端交互,支持资源管理、工具注册与提示渲染,便于构建可扩展的上下文服务。
基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具、提示模板等核心接口,使用 JSON-RPC 与客户端通信,向 LLM 客户端提供资源访问、工具调用与提示渲染能力,并支持多种传输协议(stdio、SSE、streamable-http 等)。
基于 AtomCLI 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端以标准化方式提供资源、工具、提示模版与会话管理等上下文能力,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与灵活的配置扩展。
基于 Model Context Protocol (MCP) 的 Dooray MCP 服务器实现,向大型语言模型客户端以标准化方式提供上下文信息与功能。核心能力包括托管与管理资源(Resources)、注册并执行工具(Tools)、定义与渲染提示模板(Prompts),并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。
基于 Model Context Protocol 的后端服务,提供资源管理、工具注册/调用以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,并集成 Rossum API 提供安全、可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。
基于 Model Context Protocol (MCP) 的后端示例服务器,提供资源注册、提示渲染,以及多传输(HTTP/STDIO)支持,便于与 MCP 客户端对接与集成。
一个基于 Charm KV 存储的 MCP 服务器实现,提供资源、工具、和提示模板等功能,供对话式 AI 客户端通过 JSON-RPC 与后台进行上下文交互与操作执行。当前实现通过标准输入输出(stdio)传输进行 JSON-RPC 的通信。
为 AdonisJS 应用提供 Model Context Protocol 集成,支持工具、资源和提示管理