基于 Model Context Protocol 的后端服务,提供对 Turbo EA 数据的只读访问、资源与工具注册与执行,以及 Prompt 模板定义与渲染,供大语言模型以标准化的 JSON-RPC 方式查询和调用。该仓库实现了一个可运行的 MCP 服务器,包含 OAuth/SSO 集成、REST 风格资源与工具的实现,以及用于 AI 客户端的 Prompts 定义与渲染能力,支持本地测试(stdio 模式)与容器化部署。
基于 Model Context Protocol (MCP) 的 WhatsApp 后端服务器实现,使用 Go 语言编写,提供工具注册与执行、会话管理与多传输模式支持,旨在为大模型客户端提供统一的资源访问、外部功能调用和上下文渲染能力,并可与 WhatsApp Bridge 集成使用以实现对话上下文的实时服务。
基于 Model Context Protocol (MCP) 的服务器实现,作为后端上下文服务端,向 MCP 客户端提供资源、工具、提示模板等(Resources、Tools、Prompts)的管理与执行能力,并通过 JSON-RPC 与客户端进行通信。服务器负责会话管理、能力声明、以及对多种传输协议的支持(本仓库实现了标准输入/输出的 stdio 传输模式),为 LLM 应用提供安全、可扩展的上下文服务框架,适用于 BizTalk 到 Logic Apps 的迁移场景。
基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型(LLM)客户端提供统一的 eBay Sell API 资源与工具,以及可定制的 Prompt 渲染,支持 JSON-RPC 通信、会话管理和多传输协议(STDIO/HTTP)等能力。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册/执行、资源接口、日志通知和 SSE 传输等能力,供大语言模型客户端以标准化上下文服务进行上下文获取、工具执行和提示模板渲染等任务。
基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板等上下文能力,采用 JSON-RPC 与客户端通信,支持多种传输方式(stdio、HTTP/SSE 等),并实现了 10 个 MCP 工具以便 Claude Code 进行高效、上下文化的回答与操作。
基于 Model Context Protocol 的后端实现集合,提供用于 LLM 的上下文资源管理、工具执行与提示模板渲染的 MCP 服务器。仓库中包含多个独立的 MCP 服务器实现(如 Context Hub、Service Registry、Service MCP 等),通过 JSON-RPC 对外暴露工具集和接口,支持与 Claude Code、Clawdbot 等 MCP 客户端进行交互,以及与 Context Hub 的交互与协作。
基于 Model Context Protocol (MCP) 的后端服务器实现,暴露 JustOneAPI 的工具与资源,向大型语言模型客户端提供统一的上下文访问入口,并原样返回上游 API 的原始JSON数据以保持数据保真。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具和提示(Prompts)的注册、管理与执行,通过 JSON-RPC 与 MCP 客户端通信,支持多传输通道(如标准输入输出)以为大语言模型客户端提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的服务器端实现,作为后端上下文服务提供者,统一托管资源(Resources)、注册与执行 Tools、以及渲染 Prompt 模板;通过 JSON-RPC 与客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket),实现会话管理和能力声明,帮助 LLM 客户端以标准化方式获取上下文、外部功能和提示模板。
基于 Model Context Protocol(MCP)实现的后端服务器,为大型语言模型客户端提供标准化的上下文服务,包含资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持标准化传输通道(如 STDIO、HTTP)。
基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行,以及提示模板渲染,并通过 JSON-RPC 与客户端进行标准化交互。
基于 Model Context Protocol 的后端服务器,实现对资源、工具和 Prompt 的管理与渲染,支持 JSON-RPC 交互、WebSocket/SSE 等传输,面向本地化LLM客户端提供可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息和功能。核心职责包括托管和管理 资源(Resources)、注册与执行 工具(Tools)、以及定义和渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持多种传输介质(如 STDIO、HTTP)。仓库内实现了 MCP 服务端核心、工具集合、绘制与 BOM 生成等关键模块,具备可运行的服务端代码与测试用例。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供通过 MCP 客户端进行 WhatsApp 消息收发、工具执行和对话上下文管理的能力,支持多种传输方式及会话持久化。
基于模型上下文协议(MCP)的后端服务,向 MCP 客户端提供资源、工具注册/执行以及提示模板渲染等上下文服务,通过 JSON-RPC 与客户端通信,支持会话管理和多种传输模式以支撑 LLM 应用的安全上下文服务。
基于 Model Context Protocol(MCP)的企业级后端服务器,提供资源、工具、提示的托管与渲染能力,以及会话管理、能力声明和多传输协议支持,面向 LLM 客户端以标准化的 JSON-RPC/MCP 交互模型提供上下文和执行能力。
基于 Model Context Protocol 的桌面后端实现,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 在本地与远程客户端通信;包含会话管理、能力声明以及对多传输协议的支持,便于在本地环境下为 LLM 客户端提供结构化上下文与外部功能调用能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供上下文信息与功能。核心能力包括托管与管理 Resources(数据资源)、注册与执行 Tools(外部功能)、定义与渲染 Prompts(提示模板),通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)实现安全、可扩展的上下文服务。该实现与 Skylos 项目紧密集成,提供对代码分析结果、资源访问、工具执行等能力的统一后端服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染,通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输协议的可扩展上下文服务。
基于 Model Context Protocol(MCP)的后端实现,作为后端服务器向大型语言模型客户端提供资源、工具执行能力与提示模板等上下文服务,支持会话管理、能力声明及多传输协议(如标准输入输出、SSE、WebSocket)等特性,适用于在 iOS/macOS/Xcode 项目中作为代理服务的后端服务器。
基于 Model Context Protocol (MCP) 的后端服务器,提供持久化代码索引、工具注册与执行,以及提示模板管理,能够通过 MCP 客户端以标准化的 JSON-RPC 进行读取资源、调用工具和获取 Prompt 的能力,面向 AI 助手(如 Claude Code、Gemini 等)提供结构化的上下文与功能服务。
基于 Model Context Protocol 的 MCP 服务器实现,围绕 Atlas 的工作管理工具提供工具执行、会话与上下文管理,支持以标准化的 JSON-RPC 形式与客户端交互,使用标准输入输出传输(stdio)来对接 Claude 相关工作流。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的注册、管理与执行,允许通过 JSON-RPC 与任意 LLM 客户端进行上下文信息服务与外部功能调用,并支持多种传输方式与会话能力声明。
基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持通过 JSON-RPC 与 MCP 客户端通信,具备对会话、能力声明与多传输协议的支持,属于一个完整的 MCP 服务器实现(含服务器端核心、工具暴露与网络化 MCP 传输适配)。
基于 Model Context Protocol 的 MCP 服务器实现,为本地 Markdown 项目提供标准化的上下文服务,包括资源托管、工具注册与执行,以及对外暴露的 MCP HTTP/stdio 接口,便于与各类大语言模型或本地 AI 客户端进行深度集成。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与客户端通信的后端服务,支持多传输通道(如标准输入输出、服务器发送事件、WebSocket),具备会话管理、能力声明与策略执行能力,便于向大语言模型客户端提供标准化的上下文信息和外部功能。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和 UI 渲染等能力,使用 JSON-RPC 通过 /mcp 与客户端通信,支持 Durable Objects、WebSocket、SSE 等传输,面向 LLM 客户端的上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端服务,提供技能资源管理、工具注册与执行、以及提示模板渲染,向 LLM 客户端以标准 JSON-RPC 交互提供上下文与能力,支持多传输接口与会话管理。适合作为 AI 代理的可扩展上下文服务端。
基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型(LLM)客户端提供 Onshape REST API 的上下文信息、资源和工具,支持资源管理、工具注册与执行,以及提示模板的渲染;通过 JSON-RPC 风格的接口进行交互,具备多传输通道(如 stdio、HTTP)与 OAuth 等认证能力,适合作为面向 AI 助手的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 客户端的上下文与能力提供者,托管资源、注册并执行工具、定义与渲染 Prompts,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 stdio、HTTP、WebSocket)等能力,附带可审计的合规证据与安全保障。该实现定位为 MCP 服务器端架构,适合将 LLM 客户端接入到受控的工具与资源生态中。
基于 Model Context Protocol 的 MCP 服务器实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,支持以 JSON-RPC 方式与运行在标准输入/输出、SSE、HTTP 的客户端进行通信。它将 Obsidian 笔记库与快速查询/推理功能整合,为 LLM 客户端提供安全、可扩展的上下文和功能接口。
基于 Model Context Protocol 的 MCP 服务器实现,能够向 LLM 客户端以标准化方式提供上下文信息和功能,包括资源管理、工具注册与执行,以及 Prompt 模板的渲染与渲染结果的序列化,通过 JSON-RPC 与客户端通信,并支持流式传输等多种传输模式。该仓库实现了服务器端逻辑和对外暴露的工具/资源接口,便于与大型语言模型进行后端上下文交互与功能调用。
基于 Model Context Protocol 的 MCP 服务器后端,提供对 Google Drive 的资源管理、工具执行和提示模板渲染等能力,通过 JSON-RPC 与客户端通信,支持 STDIO 传输,供大语言模型(LLM)应用读取资源、执行工具、以及获取或渲染提示。该实现包括资源读取/搜索、工具执行(如搜索、读取、下载、导出、上传等)以及可选的 Sheets 读取和资源列表示等功能。
基于 Model Context Protocol (MCP) 的本地后端实现,提供资源(Resources)托管与管理、工具(Tools)注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 的 MCP 协议与客户端通信,当前实现以 STDIO 传输为主,支持后续扩展的传输协议。
基于 Model Context Protocol (MCP) 的 FoundryVTT 后端服务器,实现资源托管、工具注册与执行,以及提示模板渲染,通过 JSON-RPC 与客户端进行通信,支持多传输协议并提供会话管理与健康诊断等能力。
基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板渲染等上下文服务,采用 JSON-RPC 风格接口进行通信,支持在本地 SQLite 存储中管理会话、记忆、工具输出等上下文信息。该仓库内含完整的 MCP 服务器实现及相关组件,可作为可运行的 MCP 服务端使用。
基于 Model Context Protocol (MCP) 的服务器实现,作为 Raven 的后端服务,通过 JSON-RPC 2.0 向 LLM 客户端暴露资源、工具和提示模板等上下文能力,支持将 Raven CLI 作为工具执行、资源与对象的查询与管理,并为 agent 与工具链提供统一的上下文服务。
基于 Model Context Protocol (MCP) 的服务器端实现,向大语言模型客户端提供资源、工具与提示模板等上下文服务,并通过 JSON-RPC 进行通信,包含认证、会话管理与多种传输能力,适用于在本地自托管环境中为智能代理提供上下文与外部功能调用能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文信息托管和功能调用,支持会话管理与跨会话记忆,面向自动化代码与软件工程场景的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源读取、工具执行、以及上下文相关能力,能够通过 Claude Code 等 LLM 客户端以 JSON-RPC 风格进行交互,向客户端提供工作区状态、Ralph 循环状态、团队活动等资源,并暴露可执行的工具集和资源查询、记忆等能力,支持插件式扩展与多机器协作场景。
基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持 JSON-RPC 通信与多传输接入,面向 LLM 客户端提供统一的上下文与功能入口。
基于 zkmin 的 MCP 服务器实现,提供资源、工具与提示模板的托管与渲染;通过 JSON-RPC 与客户端通信,支持 HTTP/SSE 传输,用于向大语言模型客户端提供可上下文化的后端能力与交互功能。
基于 Model Context Protocol (MCP) 的完整后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与 LLM 客户端通信,支持 Godot 引擎与编辑器插件的桥接执行,满足在多传输通道下的上下文服务需求。
基于 Model Context Protocol 的 MCP 服务端实现,提供对 HDL/SystemVerilog 相关资源、工具调用以及提示模板的标准化访问,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互。
基于 Model Context Protocol(MCP)的后端服务器,实现资源对接、工具注册/执行与提示模板渲染等能力,向大语言模型客户端提供标准化的上下文服务,通过 JSON-RPC 进行通信,支持多传输协议和会话管理,适用于多实例协同的上下文服务场景。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理以及 JSON-RPC 通信,支持标准化的上下文服务与多传输协议。
基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具、提示模板等核心接口,使用 JSON-RPC 与客户端通信,向 LLM 客户端提供资源访问、工具调用与提示渲染能力,并支持多种传输协议(stdio、SSE、streamable-http 等)。
基于 Model Context Protocol (MCP) 的后端服务实现,提供资源(任务)的托管与数据访问、工具注册与执行、以及面向 LLM 的提示/上下文渲染能力,并通过 MCP 方式与客户端进行 JSON-RPC 风格的交互,支持流式响应和多种传输场景(如 SSE)。
基于 Model Context Protocol 的 MCP 服务器实现,用于以标准化的 JSON-RPC 方式向 LLM 客户端提供资源、工具及上下文相关功能,采用标准输入输出(STDIN/STDOUT)进行通信,便于 Claude Code 等客户端对接执行与查询。
基于 Model Context Protocol (MCP) 的后端服务器集,提供资源托管、工具注册/执行、以及提示模板渲染等能力;通过 JSON-RPC/HTTP 等传输协议与 LLM 客户端进行标准化通信,支持会话管理、能力声明,并可扩展为多传输通道(如 STDIO、SSE、WebSocket 等)。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)的渲染等能力,允许通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持多传输协议(如流式 HTTP、StdIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。仓库内包含基于 Python 的 FastAPI 实现(以及可选的 Node.js 实现结构),实现完整的 MCP 服务端功能与实际数据源集成。
基于 Model Context Protocol 的服务器端实现,作为后端上下文服务向大型语言模型客户端提供资源、工具与提示模板等能力,支持多传输协议(如 STDIO、HTTP、WebSocket),通过 JSON-RPC 与客户端进行交互,包含会话管理、能力声明与工具/资源模板的注册与渲染。
基于 Model Context Protocol 的多服务器后端实现,向 LLM 客户端提供资源、工具及可渲染的提示模板等上下文服务,通过 JSON-RPC 与客户端进行通信,支持多种传输方式,具备注册、管理、执行工具以及安全治理等能力。
基于 Model Context Protocol (MCP) 的后端服务实现,提供对资源(Resource)、工具(Tools)及提示模板(Prompts)的管理与执行能力,并通过标准的 JSON-RPC 与客户端进行通信。支持多服务器配置、OAuth 与微支付等扩展能力,能够作为 LLM 客户端的上下文与功能提供端。
基于模型上下文协议(MCP)的后端服务器,实现资源/工具/提示模板的托管与对外能力暴露,支持 JSON-RPC 请求、SSE 实时传输和会话管理,为 LLM 客户端提供标准化的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具执行与提示模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 两种传输模式,便于将 AI 助手接入 Phoebe API 的上下文与功能。
基于 Model Context Protocol(MCP)的后端服务器实现;通过标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息、资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持多传输协议(如 Stdio、SSE、WebSocket),用于构建安全、可扩展的 LLM 上下文服务平台。
基于 Model Context Protocol 的后端 MCP 服务器实现,向大语言模型客户端提供资源管理、工具注册与调用、以及可渲染的 Prompt 模板等能力,通过 JSON-RPC/流式传输等方式进行通信,并具备会话管理、认证、备份与技能管理等完整功能。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理、提示模板等能力,并通过 JSON-RPC 与客户端通信,支持 STDIO 与 HTTP 传输,以供 LLM 客户端查询、调用工具和获取上下文信息。
基于 Model Context Protocol 的后端服务,提供资源管理、工具注册/调用以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,并集成 Rossum API 提供安全、可扩展的上下文服务。
基于 Model Context Protocol(MCP)的 AKS 后端服务器实现,向大型语言模型(LLM)客户端以标准化方式提供 AKS 资源、工具与提示模板,支持多种传输协议(stdio、SSE、streamable-http),并实现会话管理、能力声明以及安全认证能力。
基于 Model Context Protocol 的本地 MCP 服务器实现,提供对 Planet API 的上下文访问、工具调用与提示渲染能力,帮助大语言模型在本地环境中高效地与 Planet 数据和功能交互。
BriefDesk 提供一个本地化的上下文服务方案,包含 Gmail、Google Drive 等 MCP 服务以及一个中心化的上下文搜索与整合组件,用于向本地大语言模型客户端提供资源、工具和提示模板等能力。系统通过 MCP 协议实现可扩展的 JSON-RPC 通信,支持资源检索、外部工具执行和提示渲染,具备会话管理、认证与多协议传输能力。
基于 Model Context Protocol(MCP)的服务端实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与 LLM 客户端通信,管理会话与能力声明,并具备多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,用于对接外部数据源、工具和上下文提示等,实现对 LLM 的上下文服务提供与编排。
基于 Model Context Protocol 的 MCP 服务器实现,用于将一个 Discord 自助账户的资源、工具与对话模板通过标准化的 MCP JSON‑RPC 后端对接到 LLM 客户端,支持 stdio 传输并以 JSON-RPC 提供资源、工具执行与提示渲染等功能。
基于 Model Context Protocol(MCP)的广告自动化后端实现,提供资源、工具和 Prompt 模板的托管与管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的后端服务器实现,托管并管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),通过标准的 JSON-RPC 方式向 LLM 客户端提供上下文信息与功能,并支持组件化扩展与会话分析。<br/>该仓库实现了完整的 MCP 服务端框架及多组件插件,能够在 Node.js 环境中运行并对外提供 MCP 接口。<br/>注:项目使用 stdin/stdout 作为传输通道(Stdio Server Transport),并提供了丰富的组件体系以实现资源、工具、提示模板等能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。
基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。
基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。
基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。
基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。
基于 Model Context Protocol (MCP) 的后端服务器,实现对 Microsoft SQL Server 的只读资源访问、工具执行与提示模板渲染,支持 JSON-RPC 风格的请求/响应,供 LLM 客户端在对话中获得上下文信息与外部功能。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。
基于 Model Context Protocol 的 MCP 服务器,使用 Spring Boot 实现,提供 MonicaHQ CRM 数据的资源访问、工具调用及内容渲染,支持 STDIO 与 WebSocket/HTTP 等传输模式,面向大语言模型客户端(如 Claude Desktop)提供标准化的上下文服务。该服务器实现了资源管理、工具注册与执行,以及提示模板渲染等核心能力,以 JSON-RPC 2.0 进行通信。
基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。
基于 Fred 平台的 MCP 服务器实现,提供以标准化方式向大语言模型客户端提供资源、工具、提示模板等上下文与能力的后端服务,并通过 JSON-RPC/多传输通道进行通信。包含知识流后端的完整 MCP 服务、以及用于快速演示的最小 MCP 服务器示例和相应部署示例。
基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的 Reachy Mini 机器人身体控制服务器实现,暴露23个可通过 MCP 客户端调用的工具,并通过 Reachy Daemon(实际硬件或 MuJoCo 仿真)实现对头部、天线、表情、捕获等操作,支持动态工具发现、权限控制和审计日志等能力。
基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*
一个基于 Charm KV 存储的 MCP 服务器实现,提供资源、工具、和提示模板等功能,供对话式 AI 客户端通过 JSON-RPC 与后台进行上下文交互与操作执行。当前实现通过标准输入输出(stdio)传输进行 JSON-RPC 的通信。
基于 Model Context Protocol (MCP) 的服务端实现,使用 SSE 传输,提供资源与资源模板的托管、工具注册与执行,以及嵌入式 Widget 的渲染能力,作为 ChatGPT 应用的上下文与功能后端。
基于 Model Context Protocol 构建的 MCP 服务器,提供访问 Acurast 资源的接口,并支持脚本部署和处理器信息查询等工具。
Hermes Search MCP Server 是一个基于 Model Context Protocol 的后端服务,旨在为 LLM 应用提供强大的数据搜索和索引能力,通过集成 Azure Cognitive Search,实现对结构化和非结构化数据的全文和语义搜索。
基于MCP协议构建的模块化系统,实现LangGraph智能体与远程工具服务器的解耦,支持实时、多服务器和可扩展的AI应用。
这是一个轻量级的C++框架,用于构建本地LLM Agent,集成了模型上下文协议(MCP),提供工具和记忆管理功能,可作为有效的MCP服务器实现。
基于 Azure 函数和 API 管理构建的远程 MCP 服务器,提供工具注册、执行和安全访问控制能力。
Archon Agenteer MCP Server为AI IDE提供 agent 构建能力,支持通过 Model Context Protocol (MCP) 协议与客户端通信,实现agent工具注册、执行和上下文信息管理。
基于Model Context Protocol的示例服务器,演示了如何定义和执行工具,并通过Stdio与客户端通信,实现GitHub用户数据获取功能。
Offeryn是一个Rust实现的Model Context Protocol (MCP) 服务器,专注于通过工具扩展大型语言模型的能力,支持JSON-RPC over Stdio和SSE传输协议。
mcp-server仓库实现了一个简单的MCP服务器,通过工具提供推特发文和读取Google Sheets数据的功能,并通过资源暴露Google Sheets数据,演示了MCP协议在数据访问和功能扩展方面的应用。
Beamlit MCP Gateway桥接Beamlit CLI与LLM客户端,通过Model Context Protocol协议,使AI模型能安全访问和利用Beamlit的功能与资源。