基于 Model Context Protocol 的简易计算器 MCP 服务器示例,展示如何定义工具、暴露给客户端调用,以及通过 Streamable HTTP 传输进行通信的服务器实现。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,旨在为 LLM 客户端提供标准化的上下文服务:托管资源、注册和执行工具,以及定义与渲染提示模板,并通过 HTTP JSON-RPC 与客户端进行交互,支持会话管理与多传输模式(如 HTTP/StdIO)。
基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供技能目录(Resources)、可注册与执行的工具(Tools)、以及可渲染的 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端通信以提供上下文与能力服务。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及可渲染的 Prompt 模板等能力,并通过 JSON-RPC 在多种传输通道(stdio、SSE、HTTP、WebSocket)与客户端进行通信,支持会话管理、热更新和工具缓存等特性。
基于 Model Context Protocol(MCP)的后端服务,通过 JSON-RPC 提供对资源、工具和提示模板的统一访问,面向大语言模型(LLM)客户端,支持资源管理、工具注册与执行,以及端到端的 MCP 服务暴露,结合 Kubernetes Operator 实现的环境可用于云原生情境下的上下文托管与能力扩展。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具与提示模板(Prompts)的标准化上下文服务,并通过 JSON-RPC 2.0 与 MCP 客户端通信,支持多租户数据管理、工具执行以及对外部分析/推理能力的接入。
基于 Model Context Protocol (MCP) 的服务器实现,作为后端上下文服务端,向 MCP 客户端提供资源、工具、提示模板等(Resources、Tools、Prompts)的管理与执行能力,并通过 JSON-RPC 与客户端进行通信。服务器负责会话管理、能力声明、以及对多种传输协议的支持(本仓库实现了标准输入/输出的 stdio 传输模式),为 LLM 应用提供安全、可扩展的上下文服务框架,适用于 BizTalk 到 Logic Apps 的迁移场景。
基于 Model Context Protocol 的后端服务,实现对资源、工具和 Prompts 的标准化上下文提供,配合 MCP 客户端通过 JSON-RPC 进行交互,支持多传输通道(stdio/HTTP+SSE)并具备会话管理与能力声明能力。
基于 Model Context Protocol (MCP) 的独立后端服务,提供资源管理、工具注册与执行,以及提示模板的读取与渲染能力,供大语言模型客户端通过标准化的 JSON-RPC 方式获取上下文信息与外部功能。该实现包含独立的 MCP 服务器、工具注册、HTTP 路由(健康检查与请求处理)以及与向量检索、任务队列等后端组件的整合。
基于 Model Context Protocol (MCP) 的后端服务器集合,提供可标准化的数据资源访问与工具执行能力,供大语言模型客户端通过 JSON-RPC 进行交互,并通过 STDIO 传输实现跨进程通信,支持多服务器并行运行。该仓库实现了实际可运行的 MCP 服务器端代码,以及与之配套的配置和测试。
基于 Model Context Protocol(MCP)的后端服务器,面向 AI 客户端暴露资源、注册并执行工具、以及定义/渲染提示模板,支持通过 SSE/stdio 等传输协议与 AI 代理进行交互,用于提供财务数据上下文和能力扩展。
基于 Model Context Protocol(Model Context Protocol, MCP) 的 Obsidian 插件后端实现,作为 MCP 服务器向本地或远程 LLM 客户端提供资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染等能力;通过 JSON-RPC 与客户端通信,支持多传输通道(如 Stdio、SSE、WebSocket),实现会话管理、能力声明,并可在多 Vault 场景下独立运行本地化上下文服务。
基于 Model Context Protocol(MCP)的后端服务,向大型语言模型(LLM)客户端提供标准化的资源托管、工具注册与执行,以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持可扩展的传输方式与会话管理。
基于 Model Context Protocol (MCP) 的服务器端实现,嵌入 Unity 游戏运行时,提供可向大模型/LLM 客户端暴露的上下文资源、工具执行与 Prompt 渲染能力。服务器通过 JSON-RPC/事件流等传输机制与客户端通信,支持会话管理、工具注册与执行、资源管理与可扩展的工具生态。代码包含完整的服务端实现、工具集合以及测试用例,能够在 Unity 环境中运行并对接 MCP 客户端。
基于 Model Context Protocol (MCP) 的后端服务,作为 Kubernetes 相关上下文信息、工具注册与渲染 Prompt 的标准化提供者,支持与 LLM 客户端通过 JSON-RPC 进行资源访问、工具调用与提示渲染,并提供多传输协议(stdio、SSE、WebSocket 等)以实现安全可扩展的上下文服务。该仓库实现了一个可运行的 MCP 服务端(以 k13d 为 MCP 服务名称),并内置工具注册与 MCP 客户端示例。
基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染的标准化上下文服务,支持 JSON-RPC 通信、会话管理,以及多传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文与能力服务。
基于 Model Context Protocol 的后端服务器,提供资源托管、工具注册与执行、Prompt 模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 STDIO、HTTP),用于为 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的后端服务器实现,作为 wt-tools 生态的一部分,向 LLM 客户端提供标准化的上下文信息与功能接口。核心能力包括托管与管理 资源(Resources,如工作树、Ralph 循环状态、团队活动等)、注册并执行 Tools、以及定义/渲染 Prompt 模板等,所有交互通过 JSON-RPC 协议完成,并支持多种传输方式(如 STDIO)。
基于 Model Context Protocol (MCP) 的后端服务器实现集合,向 LLM 客户端以标准化方式提供资源、工具和提示,并通过 JSON-RPC 进行通信;支持多机器协同、会话管理与多传输协议(如 STDIO、SSE、WebSocket)的可扩展上下文服务框架。仓库内含多个 MCP 服务实例及封装器,用于托管资源、注册工具、渲染Prompts,并提供运行和测试环境。
基于 Model Context Protocol (MCP) 的后端服务器实现,使用 FastMCP 通过标准的 JSON-RPC 方式向 LLM 客户端提供资源、工具以及提示模板等上下文能力,并实现会话管理、能力声明及多传输协议的扩展接口。该仓库同时提供注册与暴露 MCP Tool 名称与描述的功能,支持与客户端的对等互操作。
基于 Model Context Protocol 的 MCP 服务器后端,实现通过 JSON-RPC 与客户端进行交互,向 LLM 客户端提供资源(Resources)、工具(Tools)以及提示模板(Prompts)的托管、注册、执行与渲染能力,并支持会话管理、能力声明以及多传输协议扩展。该实现不仅提供核心的 MCP 请求处理,还包含可运行的服务器组件与完整的服务逻辑。
基于 Model Context Protocol(MCP)的后端服务实现,充当 MCP 服务器,代理下游 MCP 服务器并向上游的 LLM 客户端暴露资源、工具和提示模板,同时提供策略审计、脱敏、沙箱、供应链校验等安全功能以保护上下文数据与外部调用。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC/多传输协议与客户端进行上下文服务交互。适用于给大型语言模型(LLM)提供可标准化的内存与外部功能支撑。
基于 Model Context Protocol 的 Strava 菜单/订餐 MCP 服务器,为大模型客户端提供统一的资源、工具调用与提示渲染能力,支持 STDIO 与 HTTP Streaming 两种传输。
基于 Model Context Protocol(MCP)实现的服务器端解决方案,提供资源管理、工具注册与执行、以及模板渲染等能力,并通过 A2A 桥接将外部工具和模型上下文整合到 LLM 客户端的工作流中,支持多种传输方式与安全特性,面向 Kubernetes 原生环境部署。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持 StdIO 与 HTTP 两种传输模式,并使用 Qdrant 进行向量检索,为 LLM 客户端提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供对 amdWiki 内容、资源、工具和提示模板的上下文化访问,并通过 JSON-RPC 进行通信与能力声明
基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并具备策略执行、审计追踪与多传输协议支持的 MCP 服务器实现。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输模式,面向高安全性、可扩展的上下文服务框架。
基于 Model Context Protocol 的完整 MCP 服务器实现,提供资源/工具/提示模板的管理、ACP 控制代理以及多传输支持,适配 Elixir 生态的服务端解决方案。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行,以及可渲染的提示模板,按标准 JSON-RPC 方式与客户端通信,为 LLM 客户端提供统一的上下文数据与外部功能入口。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册/执行、资源接口、日志通知和 SSE 传输等能力,供大语言模型客户端以标准化上下文服务进行上下文获取、工具执行和提示模板渲染等任务。
Overlord 提供基于 Model Context Protocol (MCP) 的服务器端实现,用于向 LLM 客户端以标准化的上下文服务方式暴露资源与工具、执行工具、以及可渲染的提示模板,并通过 JSON-RPC/Socket.IO 等协议进行通信,同时对 MCP 子服务器进行托管、管理与自动重连。
基于 Model Context Protocol 的后端实现,提供对资源、工具与 Prompt 的标准化管理与读取,并通过 JSON-RPC 与 LLM 客户端进行交互,以实现可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,向 LLM 客户端以标准化方式暴露 Godot 的资源、工具与 prompts,并提供多引擎执行(Headless、Runtime、LSP、DAP)以及会话管理等能力。
基于 Model Context Protocol (MCP) 的服务器端实现,作为后端后置服务提供对资源、工具与提示模板的管理和执行能力。通过 JSON-RPC 与 LLM 客户端通信,统一托管资源、注册并执行工具、渲染并提供 Prompt 模板,支持多工具组合及可扩展的上下文服务能力,并内置监控、信任评估与鲁棒的错误处理。
基于 Model Context Protocol(MCP)实现的后端服务器,为大型语言模型客户端提供标准化的上下文服务,包含资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持标准化传输通道(如 STDIO、HTTP)。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具暴露与提示模板渲染等核心能力,通过 JSON-RPC 与 AI 客户端通信,支持多传输模式,具备会话管理与能力协商能力。
基于 Model Context Protocol (MCP) 构建的后端服务端实现,提供资源、工具、提示模板等标准化上下文服务,供 LLM 客户端通过 JSON-RPC 风格的 MCP 协议进行交互。
基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 标准向 MCP 客户端提供 Resources、Tools 与 Prompts 的注册、查询、执行与渲染等核心能力,并支持会话管理与多传输协议接入。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板等的注册、管理与执行能力,并通过 JSON-RPC 形式对接 LLM 客户端,支持会话管理、能力声明以及多传输通道(如 HTTP、StdIO、SSE/WebSocket 之类扩展)的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息和功能。核心职责包括托管和管理 资源(Resources)、注册与执行 工具(Tools)、以及定义和渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持多种传输介质(如 STDIO、HTTP)。仓库内实现了 MCP 服务端核心、工具集合、绘制与 BOM 生成等关键模块,具备可运行的服务端代码与测试用例。
基于 Model Context Protocol(MCP)的企业级后端服务器,提供资源、工具、提示的托管与渲染能力,以及会话管理、能力声明和多传输协议支持,面向 LLM 客户端以标准化的 JSON-RPC/MCP 交互模型提供上下文和执行能力。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 方式与 MCP 客户端通信,支持嵌入式 MCP 传 transport(如 HTTP/Streams),用于向大型语言模型客户端提供可扩展的上下文与功能服务。
基于 Model Context Protocol 的 MCP 服务器实现,作为 Cloudflare Worker 提供对 agents-radar 摘要数据的标准化访问接口,支持 list、get、get_latest、search 等工具的 JSON-RPC 调用,以便 MCP 客户端查询最新报告、历史报告及关键关键字搜索。
基于 Model Context Protocol(MCP)的后端服务,向 LLM 客户端提供标准化的上下文信息和功能。通过 JSON-RPC(以 STDIO 传输为主)与客户端通信,支持托管资源、注册和执行工具、以及定义/渲染 Prompt 模板,并结合 OpenTelemetry 实现可观测性与可扩展性。
基于 Model Context Protocol 的后端 MCP 服务器,提供资源管理、工具注册与执行以及 Prompt 模板渲染的统一上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持在多种传输协议下工作(如 STDIO、SSE、WebSocket)。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供上下文信息与功能。核心能力包括托管与管理 Resources(数据资源)、注册与执行 Tools(外部功能)、定义与渲染 Prompts(提示模板),通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)实现安全、可扩展的上下文服务。该实现与 Skylos 项目紧密集成,提供对代码分析结果、资源访问、工具执行等能力的统一后端服务。
基于 Model Context Protocol 的 MCP 服务器实现与示例,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端交互,适配多种传输方式以为 LLM 应用提供可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/托管、提示模板的渲染与执行,以及通过 JSON-RPC 与客户端进行标准化通信的后端服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染,通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输协议的可扩展上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,用于向大语言模型(LLM)客户端提供图标资源、工具与可自定义的 Prompt 模板等上下文服务。该仓库中的 iconx 包提供一个可运行的 MCP 服务器实现,通过标准输入输出(stdio)传输,与客户端进行 JSON-RPC 通信,注册并执行工具(如搜索图标、生成图标组件等),并支持通过配置管理图标资源与输出。
BeigeBox 提供基于 Model Context Protocol 的 MCP 服务器实现,暴露其工具注册表为 MCP 服务,支持 initialize、tools/list、tools/call 等 JSON-RPC 方法,通过 /mcp 端点与 MCP 客户端通信,便于 Claude Desktop 等 MCP 客户端直接调用 BeigeBox 的工具,以实现标准化的资源访问与工具执行能力。
基于 Model Context Protocol 的 MCP 服务器实现,为 1C:EDT 的 AI 助手提供上下文和功能服务。服务器负责托管资源、注册并执行工具、定义并渲染提示模板,采用 JSON-RPC 与客户端通信,支持流式传输(SSE/HTTP)以实现实时交互,并提供会话管理与多种传输协议的后端上下文服务框架。
基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文信息和能力服务。核心功能包括托管和管理 资源(Resources)、注册与执行 Tools、以及定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端通信,支持多种传输模式(如 STDIO、HTTP、WebSocket),整合节点管理、RBAC 权限控制和 Zenoh 通信等组件,用于在硬件/物联网场景中提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的后端实现,作为后端服务器向大型语言模型客户端提供资源、工具执行能力与提示模板等上下文服务,支持会话管理、能力声明及多传输协议(如标准输入输出、SSE、WebSocket)等特性,适用于在 iOS/macOS/Xcode 项目中作为代理服务的后端服务器。
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行,以及基于 Prompts 的渲染能力,通过 JSON-RPC 与 LLM 客户端进行通信;实现了一个用于 MCP 的服务器端,以便 LLM 客户端能读取资源、调用工具、以及渲染/获取提示模板等上下文信息。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具注册与提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持标准化的资源、工具与提示渲染管理。
基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具、提示的注册、执行和渲染能力,并通过 JSON-RPC 与 LLM 客户端通信,实现会话管理、能力声明,以及对多传输协议的支持,以向 AI 代理提供标准化的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,作为 LLM 客户端的上下文提供与能力服务中心,负责托管资源、注册与执行工具,以及管理提示模板、会话与安全性策略。通过 JSON-RPC 与客户端通信,支持 HTTP 传输与 Stdio 传输,适用于在生产环境中为 LLM 提供可扩展的上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持通过 JSON-RPC 与 MCP 客户端通信,具备对会话、能力声明与多传输协议的支持,属于一个完整的 MCP 服务器实现(含服务器端核心、工具暴露与网络化 MCP 传输适配)。
基于 Model Context Protocol(MCP)的后端实现,提供资源(Resource)、工具(Tools)、提示模板(Prompts)的托管、注册与渲染,客户端通过 JSON-RPC 与服务器通信,支持多会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket),为LLM应用提供可扩展的上下文与功能服务。
基于 Model Context Protocol (MCP) 构建的后端服务器,向 LLM 客户端标准化暴露资源、工具与 Prompt 模板,并通过 JSON-RPC 与客户端交互,实现知识管理、工具注册与自定义对话模板的渲染与执行。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具与提示模板的托管与渲染,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(stdio、SSE、HTTP/WS),为大语言模型提供可扩展的上下文服务框架。
基于 Model Context Protocol 的后端服务器实现,提供资源及工具托管、Prompt 渲染等能力,并通过 JSON-RPC 风格的 MCP 协议在 Unix 域套接字上与客户端进行通信与协作。
基于 Model Context Protocol 的服务器实现示例,提供列出线程、获取线程、搜索会话、获取具体会话等工具,用于将本地对话历史以 MCP 方式暴露给 Claude Desktop 等客户端进行导出与查询。
基于 Model Context Protocol 的 Sigil MCP 服务器实现,提供资源与工具托管、Prompt 模板管理,以及通过 JSON-RPC 方式与 LLM 客户端进行上下文和功能交互,支持向外暴露工具查询、调用与渲染能力。
基于 Model Context Protocol 的 MCP 服务器实现,为本地 Markdown 项目提供标准化的上下文服务,包括资源托管、工具注册与执行,以及对外暴露的 MCP HTTP/stdio 接口,便于与各类大语言模型或本地 AI 客户端进行深度集成。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与客户端通信的后端服务,支持多传输通道(如标准输入输出、服务器发送事件、WebSocket),具备会话管理、能力声明与策略执行能力,便于向大语言模型客户端提供标准化的上下文信息和外部功能。
基于 Flow Weaver 的 MCP 服务器实现,提供资源、工具和提示模板的标准化管理与对外暴露,通过 JSON-RPC 与 LLM 客户端进行上下文服务、工具调用和提示渲染,支持多传输协议与会话管理,适配 Claude Code、Cursor、OpenClaw 等 MCP 客户端与插件生态。
基于 Model Context Protocol (MCP) 的服务器实现,将 Alfanous Quranic 搜索引擎暴露为 MCP 的资源、工具与提示模板,提供面向 LLM 客户端的上下文与功能服务,支持通过 MCP 客户端进行资源读取、工具调用与提示渲染。
基于 Model Context Protocol 的多 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板的标准化访问;通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明和多种传输方式,适用于 EDA 及 VLSI 设计的上下文服务后端。
基于 Model Context Protocol (MCP) 的后端服务器, provide 资源管理、工具注册与执行、以及 Prompt 模板的定义/渲染,并通过 JSON-RPC 与 LLM 客户端进行通信。服务器负责会话管理、能力声明,并支持扩展的传输协议(如 STDIO、SSE、WebSocket),用于向大语言模型应用提供标准化的上下文信息、数据访问、和外部功能调用能力。该仓库实现了完整的 MCP 服务器端能力,包含资源、工具、知识库、演示/demo、以及多工具链的整合。
基于 Model Context Protocol(MCP)的后端服务实现,作为 MCP 服务器端的安全网关与代理,提供资源管理、工具注册与执行、提示模板渲染、以及审计、沙箱和供链等功能,通过 JSON-RPC 与 MCP 客户端通信,支持多传输方式(如 Stdio、SSE、WebSocket)并可对下游 MCP 服务器进行策略控制与风险管理。
基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,供 LLM 客户端通过标准化的 JSON-RPC 进行资源读取、工具调用与提示渲染。实现了多传输协议(如 STDIO、SSE、WebSocket)下的通信,具备会话管理与能力声明,旨在为本地化的上下文服务与推理工作流提供结构化的后端支撑。
基于 Model Context Protocol(MCP)的后端实现,提供资源、工具和提示模板的管理与执行,并通过 MCP JSON-RPC 规范与语言模型客户端进行通信,支持将上下文服务、安全检测和评估功能以工具形式暴露给 LLM 代理。
基于 Model Context Protocol 的后端服务器实现,提供资源、工具与提示模板的统一上下文服务,支持多传输协议(stdio、HTTP 等)并通过 JSON-RPC 与 LLM 客户端通信,适用于 Huly 集成场景。
基于 Spring AI 的企业级模型上下文服务平台,提供模型上下文协议(MCP)的注册、管理与执行能力,以及资源、工具、提示模板等核心功能,面向 LLM 客户端提供安全可扩展的上下文服务。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具、 Prompts 的标准化管理与查询,并通过 JSON-RPC 与 MCP 客户端进行交互,支持多传输通道(如标准输入/输出、WebSocket、SSE),为 AI 代理提供上下文、数据访问和外部功能调用能力。
基于 Model Context Protocol (MCP) 的本地后端服务,提供资源管理、工具注册与执行,以及提示模板渲染,通过 JSON-RPC 与 LLM 客户端进行交互,并支持本地化部署与多种传输方式。
基于 Model Context Protocol 的 MCP 服务器实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,支持以 JSON-RPC 方式与运行在标准输入/输出、SSE、HTTP 的客户端进行通信。它将 Obsidian 笔记库与快速查询/推理功能整合,为 LLM 客户端提供安全、可扩展的上下文和功能接口。
基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义和渲染等功能,通过 JSON-RPC 与 LLM 客户端进行上下文信息和能力的交互,同时支持多种传输协议以实现安全、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务,提供工具注册与执行、资源管理以及与客户端的 JSON-RPC 通信能力,支持多种传输场景并可在无服务器环境中以内存传输方式运行,适用于将 LLM 与外部功能无缝对接的后端上下文服务框架。
基于 Model Context Protocol (MCP) 的服务器实现,提供资源与工具暴露、提示模板渲染等能力,并通过 STDIO 进行 JSON-RPC 风格的通信,方便 LLM 客户端以统一方式读取资源、调用工具、获取提示模板等上下文信息。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源存储、工具注册与执行、以及 Prompt 模板的管理与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 StdIO、SSE、WebSocket),为大语言模型在应用中的上下文服务提供完整的 MCP 服务端能力。
基于 Model Context Protocol (MCP) 的本地后端实现,提供资源(Resources)托管与管理、工具(Tools)注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 的 MCP 协议与客户端通信,当前实现以 STDIO 传输为主,支持后续扩展的传输协议。
基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器端提供对外的上下文服务。核心职责包括托管与管理资源(Resources)、注册与执行工具(Tools),以及定义与渲染 Prompt 模板,支持与 LLM 客户端通过 JSON-RPC 进行交互。服务器实现了 MCP 的核心接口(如 initialize、tools/list、tools/call),并通过 Bearer API key 进行鉴权、会话管理与策略检查,提供基本的 JSON-RPC 请求处理和响应。代码基于 Node.js + TypeScript,使用 Express 路由挂载在 /mcp 路径,并结合 Prisma 管理数据。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的标准化访问,面向 LLM 客户端实现上下文驱动的协作与推理能力,支撑多模型路由、内存同步、自测与安全治理等功能。
基于 Model Context Protocol 的 MCP 服务器实现,提供浏览器自动化相关资源与工具的注册与执行能力,并支持通过 JSON-RPC 与 LLM 客户端进行交互,提供会话管理、能力声明以及多传输协议支持,作为后端上下文服务供 LLM 使用。
基于 Model Context Protocol (MCP) 的多模态 MCP 服务器实现集合,围绕 1C:Предприятие 提供“资源/工具/提示模板”的上下文服务与托管能力,并通过 STDIO、HTTP 等传输协议与 MCP 客户端进行通信。代码覆盖 1C 相关的元数据、帮助文档、代码搜索等服务,以及一个用于搜索的 Rust 实现,构成一个可运行的 MCP 服务器生态,以支持 AI 助手在开发场景中的上下文数据和外部功能调用能力。
基于 Model Context Protocol (MCP) 的服务器实现,作为 Raven 的后端服务,通过 JSON-RPC 2.0 向 LLM 客户端暴露资源、工具和提示模板等上下文能力,支持将 Raven CLI 作为工具执行、资源与对象的查询与管理,并为 agent 与工具链提供统一的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具管理、提示渲染、以及通过 JSON-RPC 与客户端通信,支持 STDIO 与 SSE 传输并集成认证/授权与会话管理等完整后端能力。
基于 Model Context Protocol (MCP) 的服务器端实现,向大语言模型客户端提供资源、工具与提示模板等上下文服务,并通过 JSON-RPC 进行通信,包含认证、会话管理与多种传输能力,适用于在本地自托管环境中为智能代理提供上下文与外部功能调用能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染能力,通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 StdIO/SSE/WebSocket)以在本地模型对话中提供统一的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源读取、工具执行、以及上下文相关能力,能够通过 Claude Code 等 LLM 客户端以 JSON-RPC 风格进行交互,向客户端提供工作区状态、Ralph 循环状态、团队活动等资源,并暴露可执行的工具集和资源查询、记忆等能力,支持插件式扩展与多机器协作场景。
基于 Model Context Protocol 的 MCP 服务器实现,能够加载 MF 配置、注册工具、管理远程资源、渲染 MF 应用并通过 MCP 协议与客户端通信,提供多传输协议支持与安全的上下文服务框架。
基于 Model Context Protocol (MCP) 的服务器端实现,Routa 提供完整的 MCP 服务端能力,通过 JSON-RPC/Federated 流式通知向 LLM 客户端暴露资源、工具与提示模板,并支持多工作流的代理协同与会话管理。该仓库不仅包含 MCP 服务端核心逻辑,还实现了与 ACP 生态的深度集成与客户端路由接口。
基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,通过 SSE+JSON-RPC 提供资源、工具和提示的托管、注册、执行与渲染,包含会话管理、权限控制、Web UI、数据库与缓存集成,支持多种传输协议,面向 AI 代理与 IDE 集成的上下文服务框架。
基于 Model Context Protocol (MCP) 的服务器实现,向 AI 助手暴露 Sekia Daemon 的能力,包括获取状态、列出注册的代理与加载的工作流、热加载工作流、向事件总线发布合成事件以及向代理发送命令等工具。通过 MCP 的 STDIO 传输与客户端通信,实现 AI 助手对 Sekia 能力的标准化访问与控制。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板管理,并通过 JSON-RPC 与 MCP 客户端进行通信,支持流式传输(Streamable HTTP)等传输方式,以及 OAuth 认证、会话管理和工具分发能力,能够直接被 MCP 客户端调用实现多模态上下文服务。
基于 Model Context Protocol (MCP) 的服务器实现,提供标准化的资源、工具和 Prompt 管理,并通过 JSON-RPC 与 LLM 客户端进行交互;实现对 MCP 操作的 AI 可调用工具化暴露、会话管理以及多传输协议支持(如 Stdio/SSE/WebSocket),用于在 Solana 上构建隐私保护的 AI 任务协作后端。
基于 Model Context Protocol 的 MCP 服务器实现;将 Quorum 的多AI协同推理能力以标准化的 JSON-RPC 服务形式暴露给 MCP 客户端,支持资源/工具/提示模板的管理与渲染,并通过标准化接口与客户端进行通信。
基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供统一的资源管理、工具注册与调用,以及可定制的 Prompt 渲染能力;通过 JSON-RPC 2.0 进行通信,支持多种传输协议(如 stdio、SSE、WebSocket),以实现安全、可扩展的上下文服务。
基于 zkmin 的 MCP 服务器实现,提供资源、工具与提示模板的托管与渲染;通过 JSON-RPC 与客户端通信,支持 HTTP/SSE 传输,用于向大语言模型客户端提供可上下文化的后端能力与交互功能。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具执行与提示模板渲染等功能,统一以 JSON-RPC 形式向 LLM 客户端暴露上下文信息与能力,支持多传输通道(HTTP/SSE)并具备会话管理、能力声明与安全性校验。
基于 Model Context Protocol (MCP) 的 Cowboy 游戏后端实现,提供向 AI 代理以标准化上下文信息、工具执行与提示渲渲渲染等能力;通过 MCP 接口实现资源、工具、提示模板等管理,并支持通过 JSON-RPC 式通信与客户端交互,供代理绑定人类玩家以实现 AI 驱动的对弈场景。
基于 Model Context Protocol (MCP) 的本地服务器实现,提供对浏览器标签、分组、窗口等资源的访问、工具的注册与执行,以及提示模板的定义与渲染,供外部大语言模型(LLM)客户端通过 JSON-RPC 进行上下文查询、操作与交互。
基于 Model Context Protocol (MCP) 的 Poznote 后端服务器实现,利用 FastMCP 在 HTTP 流式传输上通过 JSON-RPC 提供笔记资源、工具方法与数据访问能力,支持多用户环境与简易的扩展工具集。该服务器可让大语言模型(LLM)以统一、标准化的方式读取笔记、执行笔记操作、查询工作区与文件等上下文信息。
基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具与提示模板的标准化暴露,支持 HTTP 流式传输与 stdio 传输等多种传输方式,供各类 LLM 客户端(如 Claude Desktop、VS Code Copilot、OpenWebUI 等)进行工具调用与上下文查询。
基于 Model Context Protocol(MCP)的后端服务器,实现资源对接、工具注册/执行与提示模板渲染等能力,向大语言模型客户端提供标准化的上下文服务,通过 JSON-RPC 进行通信,支持多传输协议和会话管理,适用于多实例协同的上下文服务场景。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理以及 JSON-RPC 通信,支持标准化的上下文服务与多传输协议。
基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化的 JSON-RPC 接口向 LLM 客户端提供 Recharge API 的资源、工具和提示模板等上下文服务,并通过标准传输(如 stdio)与客户端进行通信。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源与数据访问、工具注册与执行、以及 Prompt 模板渲染等能力,支持通过 JSON-RPC 与 LLM 客户端通信,并在 DuckDB/BigQuery 等后端上对临床数据集进行安全、可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器端实现,提供 PatternFly 的资源、工具与文档的统一上下文服务,支持多传输协议(STDIO、HTTP/WebSocket 等)、会话管理与能力声明,水平扩展以供 LLM 客户端获取资源、执行工具和渲染 Prompt 模板等上下文信息。
一个覆盖多语言实现的 MCP 服务器示例集合,展示如何使用 Model Context Protocol 构建后端以暴露资源、工具和提示模板等能力,包含从基础示例到多传输协议的完整实现与解决方案。
基于 AtomCLI 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端以标准化方式提供资源、工具、提示模版与会话管理等上下文能力,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与灵活的配置扩展。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源数据、工具执行能力和 Prompt 模板渲染等上下文服务,支持通过标准化的 JSON-RPC 方式交互,并可通过 STDIO、SSE/HTTP 等传输协议进行通信与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,提供将速率测试后端数据以 MCP 标准暴露给大语言模型客户端的能力;通过 JSON-RPC 风格的输入输出,在 stdin/stdout 方式下与客户端对话,支持初始化、工具列表与工具调用等核心功能,便于搭建可扩展的 LLM 辅助上下文服务入口。
基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行,以及提示模板的统一管理,通过 JSON-RPC 与 LLM 客户端进行交互,支持流式传输、会话管理与多种传输协议,使 ABAP/RAP 场景下的上下文服务可扩展且安全。
基于 Model Context Protocol 的 MCP 服务器实现,将本地技能暴露为 MCP 工具,支持 Claude Code、GitHub Copilot 等代理直接调用技能,从而实现本地技能的 Agent-Native 访问与执行。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端通信,支持本地 IPC 与 WebSocket 等传输方式,面向 LLM 客户端提供可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源/工具的注册、查询与执行,并通过 JSON-RPC 进行通信以实现后端上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器集,提供资源托管、工具注册/执行、以及提示模板渲染等能力;通过 JSON-RPC/HTTP 等传输协议与 LLM 客户端进行标准化通信,支持会话管理、能力声明,并可扩展为多传输通道(如 STDIO、SSE、WebSocket 等)。
基于 Model Context Protocol(MCP)的 Cron 任务管理 MCP 服务器实现,允许 MCP 客户端通过标准化的 JSON-RPC 调用对后端 Cron 作业进行查询、添加、删除、执行及状态获取,并通过主进程 REST API 与后端数据库和任务数据交互。
基于 Model Context Protocol 的 MCP 服务器实现,为 OpenClaw 等 LLM 客户端提供标准化的资源、工具和提示模板服务,支持 StdIO/HTTP SSE 等传输方式,通过 JSON-RPC 与客户端通信并暴露 MCP 工具与服务器信息。
基于 Model Context Protocol (MCP) 的后端服务端实现,公开招聘领域的资源、工具与提示模板,通过 MCP.json-rpc 风格的请求与客户端进行交互,并提供对多种传输与会话能力的支持(如工具注册、资源访问、提示渲染及安全授权)。
基于 Model Context Protocol 的多服务器后端实现,向 LLM 客户端提供资源、工具及可渲染的提示模板等上下文服务,通过 JSON-RPC 与客户端进行通信,支持多种传输方式,具备注册、管理、执行工具以及安全治理等能力。
基于 Model Context Protocol 的后端服务器,提供统一的资源管理、工具注册与执行、提示模板渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式(如 Stdio、SSE、WebSocket)。
基于 Model Context Protocol (MCP) 的后端服务实现,提供对资源(Resource)、工具(Tools)及提示模板(Prompts)的管理与执行能力,并通过标准的 JSON-RPC 与客户端进行通信。支持多服务器配置、OAuth 与微支付等扩展能力,能够作为 LLM 客户端的上下文与功能提供端。
基于 Model Context Protocol 的可扩展后端,提供资源、工具与提示模板的 MCP 服务,通过 JSON-RPC 与 LLM 客户端交互,支持插件化视觉分析能力和多种传输方式。整个体系以 FastAPI/uv 工具链实现服务器端能力管理与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,提供任务、时间块、子任务、用户等资源的管理和工具注册,面向 LLM 客户端通过 JSON-RPC 进行统一上下文服务与能力调用,支持 Stdio 等传输协议。)
基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具与提示模板的统一访问接口,整合 Ollama、Playwright、GitHub API 等工具集,面向大型语言模型客户端提供可扩展的上下文与能力服务。
基于 Model Context Protocol(MCP)的后端服务器集合,向大型语言模型客户端以标准化方式提供上下文信息与功能,包括托管资源、注册与执行工具,以及定义/渲染提示模板;支持多种传输协议(Stdio、SSE、HTTP),通过 JSON-RPC 与客户端通信,适用于 Claude Code 等工作流场景。
基于 Veritas Kanban 的 MCP 服务器实现,提供以 JSON-RPC 方式向 AI 助手/客户端暴露资源、工具、提示模板等上下文能力的后端服务,并支持多传输通道与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,整合插件注册、工具执行、资源管理与提示模板,通过 JSON-RPC 与浏览器客户端通信,支持 WebSocket 与 HTTP 传输,为 LLM 提供统一的上下文、工具调用和提示渲染能力,方便在开发环境中扩展自动化工具和上下文服务。
基于 Model Context Protocol (MCP) 的多租户后端服务器,实现资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,并通过 JSON-RPC 与客户端进行通信,支持 HTTP/Streamable HTTP 和 SSE 等传输协议。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与 Prompt 模板的注册、管理、执行与渲染,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式与会话管理,便于 LLM 客户端获取上下文信息与外部功能。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具执行与提示模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 两种传输模式,便于将 AI 助手接入 Phoebe API 的上下文与功能。
基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务;通过 JSON-RPC 进行请求/响应,并支持会话管理、能力声明与多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。
基于 Model Context Protocol 的后端服务实现,提供资源、工具、提示等统一管理,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 SSE)。完整的 MCP 服务器端实现,包含服务初始化、挑战/结果管理、评测与分析、以及对外暴露的健康端点。
基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端通过标准化的 JSON-RPC 方式提供资源、工具与提示模板等上下文信息,并支持开发/生产两种模式、以及通过标准传输通道进行通信。
基于 Model Context Protocol(MCP)的后端服务器实现;通过标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息、资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持多传输协议(如 Stdio、SSE、WebSocket),用于构建安全、可扩展的 LLM 上下文服务平台。
基于 Model Context Protocol 的后端服务,提供资源管理、工具注册/调用以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,并集成 Rossum API 提供安全、可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供对 Sirchmunk 的资源托管、工具注册与执行,以及提示模板渲染等能力,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文与功能服务。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具注册与执行、以及基于模板的 Prompt 渲染等上下文服务,通过 JSON-RPC 与客户端通信并支持标准化的工作流与多后端后端适配。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供 MCP 的核心能力:注册并执行工具(Tools)、托管资源与数据,以及通过 JSON-RPC 风格的交互向 LLM 客户端提供上下文与功能,支持多传输协议(stdio 与 HTTP/SSE)以便与不同的 AI 客户端对接。项目中包含可运行的 MCP 服务器代码和 HTTP/SSE 传输实现,适合作为对接大模型代理的后端服务。
基于 Model Context Protocol (MCP) 的后端服务器,标准化向大语言模型客户端提供新闻资源、工具和提示模板,支持本地 stdio 与 HTTP/SSE 传输,以实现实时上下文和外部功能的访问。
基于 Model Context Protocol 的 MCP 服务器,为本地知识库的 AI 客户端提供资源管理、工具执行与 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信。
基于 Model Context Protocol(MCP)的后端服务,为 LLM 客户端(如 Claude)提供统一的上下文服务,包括资源、工具和提示模板的管理;通过 JSON-RPC 进行通信,支持 SSE/stdio 等传输协议,并具备会话管理与认证机制,适合作为法律场景下的上下文与功能后端。
基于 Model Context Protocol(MCP)的后端服务,实现对资源、工具与 Prompt 模板的管理与渲染,提供面向 LLM 客户端的上下文服务与交互能力,支持多种传输模式(STDIO、SSE、HTTP),实现 Java 生态中的 Jakarta EE 迁移支持与分析工具的远程调用。
一个用于构建、部署和连接基于 Model Context Protocol(MCP)的后端服务与工具的综合工具链。它提供服务器代理、MCPB/Manifest 支持、检测与打包、工具注册与发布,以及本地/远程工具的解析与加载等能力,帮助开发者高效搭建和维护 MCP 服务端环境。
基于 Model Context Protocol 的 MCP 服务端实现,负责与 MCP 客户端通过 JSON-RPC 协议通信,注册并执行外部工具、管理资源与提示模板,并支持多种传输方式(如 STDIO、HTTP SSE),提供会话管理、能力声明及外部工具的接入能力。
基于 Model Context Protocol (MCP) 的 BoxLang 后端服务器实现,提供对 Resources、Tools 与 Prompts 的注册、管理与暴露,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 客户端提供标准化的上下文服务、会话与能力声明。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的托管与通过 JSON-RPC 与客户端通信的后端服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具、Prompt 模板等上下文能力的托管与管理,并通过 JSON-RPC 风格的 MCP 协议对接 LLM 客户端。实现了对 MCP 请求/响应的处理、传输协议支持(SSE/HTTP proxy、STDIO 启动模式等)、以及与网关、权限、鉴权和模块化插件体系的协同运行,定位于为 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的广告自动化后端实现,提供资源、工具和 Prompt 模板的托管与管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol 的后端服务器,为 Tandoor 食谱管理系统提供资源、工具和提示模板等上下文服务,供大语言模型调用与查询。
基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。
基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端提供上下文信息、工具调用通道与 Prompts 渲染等功能;核心通过 JSON-RPC 与客户端通信,示例实现包含最小化的服务器以支持集成测试场景。
基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行、提示模板管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议、会话管理与权限策略,以为大模型客户端提供安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的服务器实现,用于 Reflex DevTools 与 AI 客户端之间的交互。该服务器提供对应用状态、追踪数据、活动订阅、可用处理器/工具等的查询与执行能力,允许 AI 助手读取应用上下文、调用工具并渲染提示模板。通过 JSON-RPC/stdio/WebSocket 等传输,与前端仪表盘以及后端应用建立标准化的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)等能力,并通过 JSON-RPC 形式与 LLM 客户端交互,支持多种传输方式(如 STDIO、HTTP)。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源访问、以及与 LLM 的对话上下文渲染等核心能力。通过 JSON-RPC 与客户端通信,采用 STDIO 传输实现本地进程间通信,适用于 Claude Code 的 Telegram 插件后端场景。该实现涵盖工具调用、批量通知、审批流、AFK/监听等功能模块,具备完整的服务端能力与测试用例。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 客户端通信,支持多种传输通道,面向让大语言模型客户端高效获取上下文、能力和工具的后端服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。
基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供资源、工具和 Prompt 的标准化上下文服务,并通过 JSON-RPC 进行通信;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力,适用于将 Tana 数据和功能暴露给 AI 模型进行推理、调用和渲染。
基于 Model Context Protocol 的多模 MCP 服务器实现集合,提供资源管理、工具执行、模板与知识管理等功能,支持 JSON-RPC 通信和多传输通道,覆盖内存、搜索、浏览器、邮件、数据库等多种外部能力的统一后端服务。
基于 Model Context Protocol(MCP)的后端实现。提供对资源的管理、工具的注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与 SSE 与客户端通信,支持记录与回放等 MCP 服务能力,具备代理、捕获、回放、观测和安全测试等完整特性。
基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。
基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。
基于 Model Context Protocol 的 MCP 服务器,实现对 XPR(Proton 区块链)的工具查询、数据访问与外部部署能力,通过 JSON-RPC 与 MCP 客户端通信,并提供 Azure Functions 部署支持。
基于 Model Context Protocol 的后端 MCP 服务器实现,作为后端上下文服务提供商,向 LLM 客户端以标准化的 JSON-RPC 调用提供资源、工具与提示模板等能力,并通过 MCP 协议进行请求处理与响应返回。该仓库内实现了服务器端工具注册、请求分发以及对 Supabase 等后端的数据访问逻辑,可用于对接外部大模型应用场景。
基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。
基于 Model Context Protocol 的 MCP 服务器实现,集成在 EllyMUD 游戏后端,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,便于与大型语言模型或外部 AI 客户端通过 JSON-RPC 进行上下文与功能交互。
基于 Model Context Protocol(MCP)的后端服务器实现,提供面向大语言模型客户端的上下文服务能力,包含工具(Tools)、资源(Resources)和提示模板(Prompts)的注册、管理与执行,支持通过 Spring Boot 部署并对接支持 MCP 的 Agent 客户端。
基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染,采用 STDIO 传输用于与 MCP 客户端进行 JSON-RPC 风格的通信,支持多模态上下文的读取、操作和交互。
基于 Crackerjack 的 MCP(Model Context Protocol)服务器实现,提供资源托管与管理、工具注册与执行、以及可渲染的 Prompt 模板等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 WebSocket、StdIO、SSE),为 LLM 客户端提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的管理与执行,支持通过 JSON-RPC 与 MCP 客户端通信,并具备标准化的服务器端会话管理和多传输模式能力(如 StdIO)。
基于 Model Context Protocol(Model Context Protocol,简称模型上下文协议)实现的后端服务器,提供机场、航空公司与机型等 IATA 代码的查询工具,并通过 MCP 客户端进行统一的上下文服务和外部工具调用。该服务器包含完整的 MCP 服务器实现、会话管理和工具执行能力,面向 AI 应用提供标准化的数据访问与功能扩展入口。
基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。
基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 的定义/渲染,支持通过多种传输方式进行 JSON-RPC 通信,供 LLM 客户端以标准化方式获取上下文、调用外部工具并渲染对话模板。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的托管与管理,并通过 MCP 协议向 LLM 客户端暴露上下文服务、数据访问与外部功能调用能力。支持多种传输方式(HTTP/JSON-RPC、SSE、WebSocket/流式)以及多用户隔离。
基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。
基于 Model Context Protocol 的后端服务,提供资源、工具与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端进行交互,当前实现以 STDIO 传输为主要通讯方式,能够托管本地知识库中的日常简报、事实、理事会简报等资源,并暴露查询与渲染工具以支持多样化的 LLM 交互场景。
基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的企业级 MCP 服务器实现,提供网络诊断与知识检索等工具的服务端能力,并与图谱编排、工具网关、审计日志等模块协同工作,支持多服务器架构和标准化的 JSON-RPC 交互。
TypeScript SDK,用于构建基于模型上下文协议(MCP)的服务器端应用,提供装饰器定义的工具/资源/提示、会话管理、以及基于 JSON-RPC 的流式传输 HTTP 服务实现,支持自动发现、UI绑定与多种扩展能力。
基于 Model Context Protocol 构建的 MCP 服务器实现集合,提供资源与工具的托管、Prompt 定义及渲染能力,并通过 JSON-RPC 与客户端通信,支持多入口输出、浏览器扩展场景,以及跨进程/跨页面的上下文服务能力。
一个汇集了多份基于 Model Context Protocol (MCP) 的服务器实现与使用示例的学习资源库,能够通过标准化的 JSON-RPC 方式向 LLM 客户端暴露资源、工具与提示模板,支持 stdio 与 HTTP 等多种传输模式,并演示多服务器协同工作与工具调用执行流程。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供资源管理、工具注册/执行、Prompt 模板定义与渲染等能力,作为后端上下文服务框架供 LLM 客户端通过 JSON-RPC 进行资源访问、外部功能调用与交互模板渲染。仓库中包含多个可运行的 MCP 服务器示例,支持通过标准化接口对接 Claude/LLM 客户端。
TEQUMSA_NEXUS 仓库提供以 Model Context Protocol(MCP)为核心的后端服务器实现,涵盖资源、工具、提示模板等资源的托管与管理,以及通过 JSON-RPC 风格接口进行跨节点协同与数据访问,为大语言模型(LLM)客户端提供可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,用于托管与执行 BL1NK Skills,并集成 AWS Bedrock Nova Lite 进行技能生成与推理,支持资源、工具、提示模板的标准化管理与 JSON-RPC 通信。
基于AWS Lambda的serverless MCP服务器,通过HTTP为LLM应用提供工具能力。
基于Spring AI框架实现的MCP服务器示例,提供元素周期表查询、文件系统访问和地图路线规划等工具服务。
提供Model Context Protocol (MCP) 服务器的参考实现和一致性测试套件,支持STDIO和HTTP传输协议。
通过Model Context Protocol (MCP) 将Merge API的数据和功能集成到LLM应用,实现自然语言访问和操作Merge API数据。
基于Amazon Bedrock的文档问答聊天机器人,通过MCP服务器提供实时信息和外部工具访问,增强LLM上下文处理能力。
SingleStore MCP 服务器是一个基于 Model Context Protocol 的后端实现,旨在连接 SingleStore 数据库与 LLM 客户端,提供资源访问和数据库操作工具。
Agentic Finance Platform 是一个基于 Model Context Protocol (MCP) 的 AI 金融交易平台,利用多智能体协同进行投资决策,并提供实时监控和分析仪表板。
KAgent MCP Server基于Kubernetes,为AI Agent提供资源和工具管理,通过标准MCP协议简化LLM应用后端开发。
Authed MCP服务器集成方案,为AI Agent提供安全认证的Model Context Protocol服务。
Agentics Edge Functions提供了一个基于Supabase Serverless平台的Model Context Protocol (MCP) 服务器实现,用于管理AI Agent的资源和工具。
基于Amazon Bedrock的MCP服务器演示项目,提供ChatBot API并集成多种MCP工具,扩展大模型应用场景。
kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。
ATLAS MCP Server为大型语言模型提供层级任务管理能力,支持资源、工具和Prompt模板,并通过JSON-RPC协议与客户端通信。