基于 Model Context Protocol (MCP) 的 WhatsApp 后端服务器实现,使用 Go 语言编写,提供工具注册与执行、会话管理与多传输模式支持,旨在为大模型客户端提供统一的资源访问、外部功能调用和上下文渲染能力,并可与 WhatsApp Bridge 集成使用以实现对话上下文的实时服务。
一个基于 Model Context Protocol (MCP) 的后端实现,用于向大语言模型客户端提供 Fiji / ImageJ 的资源、工具和提示模板等上下文信息,并通过 JSON-RPC 进行通信。核心功能包括托管 Fiji 资源、注册可调用的工具、渲染提示模板,以及会话管理。该实现通过 fastmcp 库暴露一个服务器实例,注册工具并提供运行入口。当前为 Proof of Concept(POC),依赖 ImageJ/Fiji 的 Java/JVM 环境以及对应的 Python 封装,便于在本地桌面环境或开发机上进行功能验证。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,旨在为 LLM 客户端提供标准化的上下文服务:托管资源、注册和执行工具,以及定义与渲染提示模板,并通过 HTTP JSON-RPC 与客户端进行交互,支持会话管理与多传输模式(如 HTTP/StdIO)。
基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供技能目录(Resources)、可注册与执行的工具(Tools)、以及可渲染的 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端通信以提供上下文与能力服务。
基于 Model Context Protocol (MCP) 的服务器端实现,提供对代理任务看板的资源、工具、提示等能力,通过 JSON-RPC 的 MCP 交互向 LLM 客户端暴露 backlog、编辑、查询等能力,并包含本地/团队模式、UI Kanban 界面以及 Leader 选举等特性。该仓库中的 MCP 服务端实现了工具注册、请求分发、日志与数据库契合,以及与前端 UI 的协同工作。
基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供统一的资源数据、工具调用、以及可渲染的 Prompt 模板等上下文服务,通过 JSON-RPC 进行通信,支持会话管理、能力声明与多传输协议接入。
基于 Model Context Protocol (MCP) 的 PostgreSQL 后端服务器实现,向大语言模型客户端提供数据库资源、可调用工具、以及可渲染的 Prompt,支持多种传输协议(stdio、HTTP/SSE),并内置认证、会话管理与安全策略。
基于 Model Context Protocol 的 MCP 服务器实现,Cloudflare Worker 端对外提供通过 JSON-RPC 的上下文服务,向 LLM 客户端提供着色器资源检索、工具调用与 Prompts 渲染等能力,并支持多种传输与兼容端点。该实现包含完整的 MCP 请求/响应处理、会话管理与多端点支持。]
基于 Model Context Protocol (MCP) 的服务器实现,向大语言模型客户端提供标准化的上下文服务与能力,包括资源管理、工具注册/执行以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 HTTP/HTTPS、stdio),具备会话管理、能力声明与可扩展的后端架构。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及可渲染的 Prompt 模板等能力,并通过 JSON-RPC 在多种传输通道(stdio、SSE、HTTP、WebSocket)与客户端进行通信,支持会话管理、热更新和工具缓存等特性。
基于模型上下文协议(MCP)的后端服务器,向大语言模型客户端提供对 PostgreSQL 数据库的上下文信息、工具执行与数据访问能力,通过 JSON-RPC 进行通信,支持查询、表/视图与约束描述、索引、慢查询分析等多种工具的统一调用。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具与提示模板(Prompts)的标准化上下文服务,并通过 JSON-RPC 2.0 与 MCP 客户端通信,支持多租户数据管理、工具执行以及对外部分析/推理能力的接入。
基于 Model Context Protocol (MCP) 的服务器实现,作为后端上下文服务端,向 MCP 客户端提供资源、工具、提示模板等(Resources、Tools、Prompts)的管理与执行能力,并通过 JSON-RPC 与客户端进行通信。服务器负责会话管理、能力声明、以及对多种传输协议的支持(本仓库实现了标准输入/输出的 stdio 传输模式),为 LLM 应用提供安全、可扩展的上下文服务框架,适用于 BizTalk 到 Logic Apps 的迁移场景。
基于 Model Context Protocol 的后端服务,实现对资源、工具和 Prompts 的标准化上下文提供,配合 MCP 客户端通过 JSON-RPC 进行交互,支持多传输通道(stdio/HTTP+SSE)并具备会话管理与能力声明能力。
基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端提供 Home Assistant 的资源、工具和提示模板,并通过 JSON-RPC 标准化通信实现上下文管理、资源访问、工具执行与模板渲染等能力,支持多传输协议(以 WebSocket 为主,REST 提供部分 CRUD 功能),实现对 LLM 的安全、可扩展上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息与功能,包括资源管理、工具注册/执行以及提示模板的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如标准输入输出、SSE、WebSocket)实现轻量级、高扩展性的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器集合,提供可标准化的数据资源访问与工具执行能力,供大语言模型客户端通过 JSON-RPC 进行交互,并通过 STDIO 传输实现跨进程通信,支持多服务器并行运行。该仓库实现了实际可运行的 MCP 服务器端代码,以及与之配套的配置和测试。
基于 Model Context Protocol(MCP)的后端服务,向大型语言模型(LLM)客户端提供标准化的资源托管、工具注册与执行,以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持可扩展的传输方式与会话管理。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端通信;支持会话管理、能力声明與多传输协议接入,形成可扩展的 LLM 上下文服务框架。该仓库包含完整的 MCP 服务端实现、客户端适配、工具与资源注册,以及相关的测试与示例。注:文档和示例中的实现细节来自代码库中的 mcp 目录及相关模块。
基于 Model Context Protocol(MCP)的后端服务器实现,为 LLM 客户端提供 Cheat Engine 的上下文服务,包括资源管理、工具注册与执行,以及提示模板的渲染与渲染逻辑。服务器通过 JSON-RPC/自定义消息格式与客户端通信,支持会话管理、能力声明,以及多种传输方式,旨在为 AI 应用提供可扩展的内存、调试与脚本化能力覆盖。
基于 Model Context Protocol (MCP) 的 OmniFocus 后端服务器实现,提供对 OmniFocus 的资源、工具、提示模板的标准化访问,并通过 JSON-RPC 与 LLM 客户端进行通信。服务器底层通过 AppleScript 与 OmniFocus 交互,支持资源管理、工具执行、提示渲染等 MCP 服务器核心能力。
基于 Model Context Protocol (MCP) 的后端服务,作为 Kubernetes 相关上下文信息、工具注册与渲染 Prompt 的标准化提供者,支持与 LLM 客户端通过 JSON-RPC 进行资源访问、工具调用与提示渲染,并提供多传输协议(stdio、SSE、WebSocket 等)以实现安全可扩展的上下文服务。该仓库实现了一个可运行的 MCP 服务端(以 k13d 为 MCP 服务名称),并内置工具注册与 MCP 客户端示例。
基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染的标准化上下文服务,支持 JSON-RPC 通信、会话管理,以及多传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文与能力服务。
基于 Model Context Protocol 的后端服务器,提供资源托管、工具注册与执行、Prompt 模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 STDIO、HTTP),用于为 LLM 应用提供安全、可扩展的上下文服务框架。
在 Visual Studio 中实现基于 Model Context Protocol 的后端服务器,提供资源、工具执行和提示模板等核心能力,供 Copilot CLI 通过 /ide 与 VS 集成并获得上下文与功能服务。
基于 Model Context Protocol(MCP)的后端服务器实现,作为 wt-tools 生态的一部分,向 LLM 客户端提供标准化的上下文信息与功能接口。核心能力包括托管与管理 资源(Resources,如工作树、Ralph 循环状态、团队活动等)、注册并执行 Tools、以及定义/渲染 Prompt 模板等,所有交互通过 JSON-RPC 协议完成,并支持多种传输方式(如 STDIO)。
一个基于 Model Context Protocol (MCP) 的 ServiceNow 后端服务器实现,提供资源管理、工具注册与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端通信。
基于 Model Context Protocol (MCP) 的后端服务器实现集合,向 LLM 客户端以标准化方式提供资源、工具和提示,并通过 JSON-RPC 进行通信;支持多机器协同、会话管理与多传输协议(如 STDIO、SSE、WebSocket)的可扩展上下文服务框架。仓库内含多个 MCP 服务实例及封装器,用于托管资源、注册工具、渲染Prompts,并提供运行和测试环境。
基于 Model Context Protocol (MCP) 的后端服务器实现,使用 FastMCP 通过标准的 JSON-RPC 方式向 LLM 客户端提供资源、工具以及提示模板等上下文能力,并实现会话管理、能力声明及多传输协议的扩展接口。该仓库同时提供注册与暴露 MCP Tool 名称与描述的功能,支持与客户端的对等互操作。
基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管、工具注册与执行,以及可渲染的提示/模板等能力,帮助 LLM 客户端以标准化的 JSON-RPC 方式获取上下文、调用外部功能并渲染提示。仓库内包含多种 MCP 服务器实现(如 stdio 传输与 SSE 传输)的后端实现,具备会话管理、JWT/鉴权、跨传输协议的支持,以及相应的单元测试与示例,用于将 LCYT 的字幕/前端服务与 LLM 集成。
基于 Model Context Protocol(MCP)的服务器实现,提供网页内容获取与转换等工具的 MCP 服务接口,允许 LLM 客户端通过 JSON-RPC 调用工具、检索工具列表并执行网页相关任务,进而得到结构化输出和元数据。该服务明确实现了 MCP 的核心请求处理路径(如 ListTools、CallTool),并提供可运行的服务端代码,作为 MCP 服务器使用。
基于 Model Context Protocol 的 MCP 服务器后端,实现通过 JSON-RPC 与客户端进行交互,向 LLM 客户端提供资源(Resources)、工具(Tools)以及提示模板(Prompts)的托管、注册、执行与渲染能力,并支持会话管理、能力声明以及多传输协议扩展。该实现不仅提供核心的 MCP 请求处理,还包含可运行的服务器组件与完整的服务逻辑。
基于 Model Context Protocol 的 MCP 服务器实现,在 Windows 上向 LLM 客户端以标准化方式暴露工具、资源与上下文信息,并通过 JSON-RPC 提供本地/远程的上下文服务与自动化能力。
基于 MCP 的后端服务器(Rust 实现),通过 JSON-RPC 提供对 GitHub 数据的实时访问能力,支持标签、变更日志、README、文件树等资源的管理与查询。
基于 Model Context Protocol (MCP) 的服务器实现,为 AI 客户端提供 Prometheus 观测数据查询与诊断能力的上下文服务。当前实现通过 MCP 暴露工具(例如 prom_query、prom_targets),即可读取 Prometheus 指标、目标信息等,支持以 JSON-RPC 方式与 LLM 客户端对接,便于 AI 进行系统诊断与自愈场景的上下文访问。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持 StdIO 与 HTTP 两种传输模式,并使用 Qdrant 进行向量检索,为 LLM 客户端提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,使用 FastMCP 构建并对外暴露天气查询与警报工具,支持通过 JSON-RPC 与客户端进行交互,配合 Gemini API 调用外部天气服务。该实现包含服务器端工具注册、请求处理与响应逻辑,属于完整的 MCP 服务器实现范例。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供对 amdWiki 内容、资源、工具和提示模板的上下文化访问,并通过 JSON-RPC 进行通信与能力声明
基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并具备策略执行、审计追踪与多传输协议支持的 MCP 服务器实现。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输模式,面向高安全性、可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行,以及可渲染的提示模板,按标准 JSON-RPC 方式与客户端通信,为 LLM 客户端提供统一的上下文数据与外部功能入口。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册/执行、资源接口、日志通知和 SSE 传输等能力,供大语言模型客户端以标准化上下文服务进行上下文获取、工具执行和提示模板渲染等任务。
基于 Model Context Protocol (MCP) 的 JSON-RPC MCP 服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)的托管与管理,并通过统一的 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输场景。仓库中包含用于 MCP 校验的工具定义、JSON-RPC 路由实现,以及在 Next.js 环境下的服务器端实现代码。该实现不仅提供客户端调用示例,还实现了服务端的鉴权、能力声明与请求分发等核心功能。<div align="center">(MCP 服务器核心功能在 src/app/api/mcp/route.ts,可处理 initialize、tools/list、tools/call、ping 等方法并返回标准 JSON-RPC 响应。)</div>
基于 Model Context Protocol 的通用后端服务器,将任意 REST/OpenAPI 规格暴露给 AI 助手,提供资源管理、工具注册、以及可定制的提示模板等能力,并通过 JSON-RPC 与客户端通信,支持多种传输与安全特性。
基于 Model Context Protocol (MCP) 的高性能后端,将 Obsidian 符合语义的笔记库暴露为可被大语言模型访问的上下文服务,核心职责包括托管资源、注册与执行工具、以及定义与渲染 Prompt 模板,支持多 Vault 管理与多传输协议。实现了标准化的 JSON-RPC 通信,便于 LLM 客户端进行读取、调用外部工具、以及获取 Prompts 的能力声明与渲染。
基于 Model Context Protocol (MCP) 的 OpenStudio 后端服务器,向大型语言模型 (LLM) 客户端提供标准化的上下文信息与功能。核心职责包括托管和管理 OpenStudio 资源(如模型、设计日、结果等)、注册和执行工具(Tools,供 LLM 调用外部功能)、定义与渲染 Prompt 模板,并通过 JSON-RPC 与客户端通信实现会话管理、能力声明与多传输协议支持(如标准输入输出、服务器发送事件、WebSocket 等)。通过一个内存中的模型管理器维护模型状态,运行结果与跑步(Runs)输出存放在 /runs,提供安全、可扩展的后端服务框架。该实现面向与 OpenStudio/EnergyPlus 的集成与自动化工作流场景,方便将 LLM 的推理过程与能源模型操作结合起来。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册、API 访问、Prompts/输出渲染能力,并通过 JSON-RPC 与 LLM 客户端通信,支持 STDIO 与 SSE 等传输方式,以为大语言模型提供标准化的上下文与外部功能访问。
基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板等上下文能力,采用 JSON-RPC 与客户端通信,支持多种传输方式(stdio、HTTP/SSE 等),并实现了 10 个 MCP 工具以便 Claude Code 进行高效、上下文化的回答与操作。
Overlord 提供基于 Model Context Protocol (MCP) 的服务器端实现,用于向 LLM 客户端以标准化的上下文服务方式暴露资源与工具、执行工具、以及可渲染的提示模板,并通过 JSON-RPC/Socket.IO 等协议进行通信,同时对 MCP 子服务器进行托管、管理与自动重连。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示的托管与管理,通过 JSON-RPC 与 LLM 客户端通信;整合 Claude Code、WebSocket 通信、实时会话监控与 API 代理等组件,实现可扩展的上下文服务框架。
基于 MCP 标准的后端服务器,提供资源、工具与提示模板的注册、读取与执行,并通过 JSON-RPC 与客户端进行通信,支持在 Cloudflare Worker 环境中运行,面向 LLM 客户端提供标准化的上下文与能力服务。
基于 Model Context Protocol 的后端实现集合,提供用于 LLM 的上下文资源管理、工具执行与提示模板渲染的 MCP 服务器。仓库中包含多个独立的 MCP 服务器实现(如 Context Hub、Service Registry、Service MCP 等),通过 JSON-RPC 对外暴露工具集和接口,支持与 Claude Code、Clawdbot 等 MCP 客户端进行交互,以及与 Context Hub 的交互与协作。
基于 Model Context Protocol (MCP) 的后端服务器实现,暴露 JustOneAPI 的工具与资源,向大型语言模型客户端提供统一的上下文访问入口,并原样返回上游 API 的原始JSON数据以保持数据保真。
基于 Model Context Protocol 的后端实现,提供对资源、工具与 Prompt 的标准化管理与读取,并通过 JSON-RPC 与 LLM 客户端进行交互,以实现可扩展的上下文服务。
基于 MCP 架构的后端服务器,为大语言模型(LLM)客户端提供对 Yandex Wiki 的页面读取与写入、以及相关工具的访问与缓存支持,通过 JSON-RPC 提供统一接口,支持读写模式并可选 Redis 缓存。
基于 MCP(Model Context Protocol)的 HTTP 流式后端服务,通过逐会话创建子进程来实现沙箱化上下文和工具调用的安全隔离,支持资源/工具的托管,以及基于 Prompts 的交互模板渲染;客户端通过 JSON-RPC 与桥接服务通信,桥接再与底层 MCP 子进程对接,采用 POST 请求+ SSE 推送的流式传输模式。该实现覆盖初始化握手、根目录(roots/list)协商、沙箱锁定以及会话终止等核心 MCP 语义,并提供多种传输模式(STDIO、HTTP 桥接、SSE 等)以支持多样化的 LLM 客户端场景。<br/>注:核心 MCP 服务器组件由 ahma_mcp 子系统提供,ahma_http_bridge 负责作为“服务器端”的桥接实现,连接客户端与 MCP 子进程。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,向 LLM 客户端以标准化方式暴露 Godot 的资源、工具与 prompts,并提供多引擎执行(Headless、Runtime、LSP、DAP)以及会话管理等能力。
基于 MCP 协议的异步后端实现,为 LLM 客户端提供 Azure AI Foundry 的模型调用、资源管理与提示渲染能力,并通过标准化的 JSON-RPC 交互实现工具执行与会话管理。
基于 Model Context Protocol (MCP) 的服务器端实现,作为后端上下文服务提供者,统一托管资源(Resources)、注册与执行 Tools、以及渲染 Prompt 模板;通过 JSON-RPC 与客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket),实现会话管理和能力声明,帮助 LLM 客户端以标准化方式获取上下文、外部功能和提示模板。
基于 Model Context Protocol (MCP) 的服务器端实现,作为后端后置服务提供对资源、工具与提示模板的管理和执行能力。通过 JSON-RPC 与 LLM 客户端通信,统一托管资源、注册并执行工具、渲染并提供 Prompt 模板,支持多工具组合及可扩展的上下文服务能力,并内置监控、信任评估与鲁棒的错误处理。
基于 Model Context Protocol(MCP)实现的后端服务器,为大型语言模型客户端提供标准化的上下文服务,包含资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持标准化传输通道(如 STDIO、HTTP)。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具暴露与提示模板渲染等核心能力,通过 JSON-RPC 与 AI 客户端通信,支持多传输模式,具备会话管理与能力协商能力。
基于 Model Context Protocol 的 MCP 服务器实现,作为后端为大语言模型客户端提供标准化的上下文信息、资源数据、工具执行能力以及自定义提示模板等功能,支持 JSON-RPC 通信、会话管理和多种传输协议。
基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行,以及提示模板渲染,并通过 JSON-RPC 与客户端进行标准化交互。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 RuVector 生态的一部分,负责通过标准化的 JSON-RPC 向 LLM 客户端提供上下文信息和功能。核心职责包括托管与管理 Resources(资源数据访问)、注册并执行 Tools(工具调用)、定义与渲染 Prompts(提示模板),并支持多传输协议(如 Stdio、SSE、WebSocket)。服务器端负责会话管理、能力声明与扩展性配置,适配多种客户端场景,提供安全、可扩展的上下文服务框架,支持与 RuVector 其他组件的无缝对接。
基于 Model Context Protocol (MCP) 的后端服务实现,将 Charles Proxy 的上下文数据以资源、工具与提示模板等形式暴露给 LLM 客户端,通过 JSON-RPC 进行通信,支持实时 live 捕获、历史快照、分析与分组等功能,构建一个可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 标准向 MCP 客户端提供 Resources、Tools 与 Prompts 的注册、查询、执行与渲染等核心能力,并支持会话管理与多传输协议接入。
基于 Model Context Protocol (MCP) 的 NotebookLM 后端服务器实现,提供资源、工具和提示的标准化管理与渲染,支持通过 JSON-RPC 与 LLM 客户端通信,具备会话管理、能力声明以及对多种传输协议的支持,适用于将 NotebookLM 的上下文和功能暴露给强大的 AI 助手。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板等的注册、管理与执行能力,并通过 JSON-RPC 形式对接 LLM 客户端,支持会话管理、能力声明以及多传输通道(如 HTTP、StdIO、SSE/WebSocket 之类扩展)的上下文服务框架。
基于 MCP 协议的后端服务,暴露文本转语音(TTS)功能为可通过 JSON-RPC 调用的工具,供大语言模型客户端在对话中按需进行语音输出与会话管理扩展。该实现提供一个注册的 speak 工具,通过标准 MCP 机制接收文本输入并返回语音执行结果或错误信息。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供通过 MCP 客户端进行 WhatsApp 消息收发、工具执行和对话上下文管理的能力,支持多种传输方式及会话持久化。
基于模型上下文协议(MCP)的后端服务,向 MCP 客户端提供资源、工具注册/执行以及提示模板渲染等上下文服务,通过 JSON-RPC 与客户端通信,支持会话管理和多种传输模式以支撑 LLM 应用的安全上下文服务。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供可运行的浏览器自动化技能服务,通过 JSON-RPC 与客户端通信,注册并执行工具、管理资源与提示模板,供 LLM 客户端调用实现浏览器操作。
基于模型上下文协定(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及提示模板渲染等核心能力,并通过 JSON-RPC/SSE 提供给 LLM 客户端使用的上下文服务与功能调用入口,同时包含 REST API、权限与计费等完整实现。
基于 Model Context Protocol 的简单 MCP 服务器,提供对 Star Wars API 的资源与工具的暴露与管理,便于通过标准化的 MCP 客户端进行上下文服务调用。
基于 Model Context Protocol(MCP)的后端服务器实现,向大语言模型客户端提供规范化的上下文服务,包括资源管理、工具注册与执行,以及可定制的提示模板渲染;通过 JSON-RPC 进行通信,支持多种传输模式(如 stdio、HTTP/Streamable HTTP),并实现会话管理与能力声明,适用于在本地搭建的 MCP 服务端场景。
基于 Model Context Protocol 的 MCP 服务器实现,作为 Cloudflare Worker 提供对 agents-radar 摘要数据的标准化访问接口,支持 list、get、get_latest、search 等工具的 JSON-RPC 调用,以便 MCP 客户端查询最新报告、历史报告及关键关键字搜索。
基于模型上下文协议(MCP)的后端服务,提供 Pancake POS 的资源访问、工具执行与对话相关能力,通过 JSON-RPC 与客户端通信,支持本地 stdio 与 HTTP 两种传输模式。
基于 Model Context Protocol (MCP) 的 JSON-RPC 2.0 服务器实现,提供资源管理、工具调用与上下文提示渲染,作为 Claude Code 等客户端的后端上下文服务,采用标准输入输出传输进行通信。
基于 Model Context Protocol 的桌面后端实现,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 在本地与远程客户端通信;包含会话管理、能力声明以及对多传输协议的支持,便于在本地环境下为 LLM 客户端提供结构化上下文与外部功能调用能力。
基于 Model Context Protocol(MCP)的服务器端实现,提供资源、工具、提示模板管理,并通过 JSON-RPC 与客户端进行上下文与功能协作,支持多传输协议用于与大语言模型客户端对接。
基于 Model Context Protocol(MCP)的后端服务,向 LLM 客户端提供标准化的上下文信息和功能。通过 JSON-RPC(以 STDIO 传输为主)与客户端通信,支持托管资源、注册和执行工具、以及定义/渲染 Prompt 模板,并结合 OpenTelemetry 实现可观测性与可扩展性。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等能力,供 LLM 客户端以统一的 JSON-RPC 风格通过 MCP 进行访问与调用。
基于 Model Context Protocol (MCP) 的浏览器控制后端服务器实现,提供一组浏览器操作工具给 LLM 客户端通过 MCP 协议调用,核心通过 Chrome DevTools Protocol (CDP) 控制浏览器,并通过 STDIO 的 JSON-RPC 方式与客户端通信。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源(Resources)、工具(Tools)和提示模板(Prompts)的注册、管理和渲染能力,并通过 JSON-RPC 与客户端通信,支持 SSE 传输模式的事件推送,适合作为 LLM 客户端的上下文服务和外部功能执行入口。
基于 Model Context Protocol (MCP) 的后端服务,为 Paprika Recipe Manager 数据提供资源、工具与提示模板,通过 JSON-RPC 方式与客户端通信,并支持标准传输通道(如 stdio),用于向大型语言模型提供可检索的配方数据与外部工具调用能力。
基于 Model Context Protocol 的后端 MCP 服务器,提供资源管理、工具注册与执行以及 Prompt 模板渲染的统一上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持在多种传输协议下工作(如 STDIO、SSE、WebSocket)。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板等上下文服务,通过 JSON-RPC 2.0 的 MCP 接口与 LLM 客户端对接,支持在 MultiversX 区块链上进行证据证明与工具调用等能力。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的管理、JSON-RPC 通信与多场景部署能力,能够让 LLM 客户端通过标准接口调用音效资源、获取 Pack 信息并执行音频播放等功能。
基于 Model Context Protocol 的 MCP 服务器实现,作为 Roxlit 向 LLM 客户端暴露 Luau 执行、资源访问与日志等能力的后端服务。通过标准输入输出(stdio)进行 JSON-RPC 通信,能够与 Roxlit Launcher 的 HTTP 服务协同工作,向 AI 客户端提供统一的上下文与工具执行能力。
Grimoire Kit 框架中的 BMAD MCP 服务器实现,为本地 IDE 客户端提供对 BMAD Intelligence Layer 的工具、资源和 Prompts 的统一访问接口,采用 MCP 标准通过 JSON-RPC 进行通信。服务器内置对 BMAD 生态工具的暴露与自动发现,支持对工具执行、资源读取、Prompts 渲染等功能的远程调用,与多种前端 IDE 或 Copilot/Cursor 等 MCP 客户端集成。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供上下文信息与功能。核心能力包括托管与管理 Resources(数据资源)、注册与执行 Tools(外部功能)、定义与渲染 Prompts(提示模板),通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)实现安全、可扩展的上下文服务。该实现与 Skylos 项目紧密集成,提供对代码分析结果、资源访问、工具执行等能力的统一后端服务。
基于 Model Context Protocol 的 MCP 服务器实现与示例,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端交互,适配多种传输方式以为 LLM 应用提供可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/托管、提示模板的渲染与执行,以及通过 JSON-RPC 与客户端进行标准化通信的后端服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染,通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输协议的可扩展上下文服务。
基于 Model Context Protocol (MCP) 的企业级后端服务器,向 LLM 客户端提供资源、注册与执行工具、以及可渲染的提示模板等上下文服务,并通过 JSON-RPC/HTTP 与 Claude 等客户端进行通信,支持本地化计算、企业数据集成与多种传输方式。
Brakit 提供基于 Model Context Protocol (MCP) 的服务器端实现,向大型语言模型(LLM)客户端以标准化方式暴露资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多种传输方案,用于在本地环境中为 LLM 应用提供上下文服务与扩展能力。
基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示的标准化上下文服务,支持通过 JSON-RPC 在 stdio/HTTP 传输,并与 Nostr、SurrealDB、嵌入式模型及上下文虚拟机等模块无缝协作,兼容多种客户端框架的后端上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,用于向大语言模型(LLM)客户端提供图标资源、工具与可自定义的 Prompt 模板等上下文服务。该仓库中的 iconx 包提供一个可运行的 MCP 服务器实现,通过标准输入输出(stdio)传输,与客户端进行 JSON-RPC 通信,注册并执行工具(如搜索图标、生成图标组件等),并支持通过配置管理图标资源与输出。
基于 Model Context Protocol 的 MCP 服务器实现,为 1C:EDT 的 AI 助手提供上下文和功能服务。服务器负责托管资源、注册并执行工具、定义并渲染提示模板,采用 JSON-RPC 与客户端通信,支持流式传输(SSE/HTTP)以实现实时交互,并提供会话管理与多种传输协议的后端上下文服务框架。
基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文信息和能力服务。核心功能包括托管和管理 资源(Resources)、注册与执行 Tools、以及定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端通信,支持多种传输模式(如 STDIO、HTTP、WebSocket),整合节点管理、RBAC 权限控制和 Zenoh 通信等组件,用于在硬件/物联网场景中提供安全、可扩展的上下文服务框架。
Radar 内置的 Model Context Protocol (MCP) 服务器实现,提供统一的资源数据访问、工具调用与 Prompt 渲染接口,支持通过 JSON-RPC 与 LLM 客户端通信,方便 AI 助手查询集群上下文、执行外部功能、渲染对话模板等。
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行,以及基于 Prompts 的渲染能力,通过 JSON-RPC 与 LLM 客户端进行通信;实现了一个用于 MCP 的服务器端,以便 LLM 客户端能读取资源、调用工具、以及渲染/获取提示模板等上下文信息。
基于 Model Context Protocol (MCP) 的后端实现,为 LLM 客户端提供标准化的资源、工具与提示的暴露和管理,并通过 JSON-RPC 进行远程调用与会话管理,具备可扩展的插件式架构与本地化推理上下文服务。
基于 MCP 协议的后端服务,提供对浏览器自动化能力的统一访问入口,通过 JSON-RPC 与客户端交互并将命令映射到 WebAct 的 CLI/SDK 操作,实现对资源、工具及提示模板等能力的托管与执行,适用于将浏览器自动化功能嵌入到大语言模型的工作流中。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具注册与提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持标准化的资源、工具与提示渲染管理。
基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具、提示的注册、执行和渲染能力,并通过 JSON-RPC 与 LLM 客户端通信,实现会话管理、能力声明,以及对多传输协议的支持,以向 AI 代理提供标准化的上下文服务。
基于 Model Context Protocol(MCP)实现的后端服务器,提供资源托管、工具注册与执行、以及可定制的 Prompt 模板渲染。通过 JSON-RPC 形式与 LLM 客户端通信,支持多传输方式(HTTP、STDIO 等),并提供会话管理、能力声明、访问控制与审计追踪等完整后端能力。仓库内不仅包含完整的 MCP 服务端实现,还实现了与 Claude/Cursor/Windsurf 等 MCP 客户端的对接支持。
基于 Model Context Protocol (MCP) 的后端服务,向大语言模型客户端以标准化方式提供世界魔方协会(WCA)数据的资源、工具与提示模板等上下文能力,并通过 JSON-RPC 与客户端交互实现数据读取、外部功能调用与提示渲染等功能。
基于 Model Context Protocol (MCP) 的后端服务,作为 LLM 客户端的上下文提供与能力服务中心,负责托管资源、注册与执行工具,以及管理提示模板、会话与安全性策略。通过 JSON-RPC 与客户端通信,支持 HTTP 传输与 Stdio 传输,适用于在生产环境中为 LLM 提供可扩展的上下文与功能服务。
基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供标准化的上下文服务:托管资源、注册与执行工具、定义与渲染 prompts,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 SSE、WebSocket、StdIO)以实现安全、可扩展的上下文服务框架。仓库中已有大量 MCP 相关模块和对接实现,能够与客户端协同提供资源、工具与提示等能力。对接示例包括通过 llm_client 与 MCP 平台服务器进行交互以及对 MCP 服务的自检与自动重启等能力。
基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持通过 JSON-RPC 与 MCP 客户端通信,具备对会话、能力声明与多传输协议的支持,属于一个完整的 MCP 服务器实现(含服务器端核心、工具暴露与网络化 MCP 传输适配)。
基于 Model Context Protocol(MCP)的后端实现,提供资源(Resource)、工具(Tools)、提示模板(Prompts)的托管、注册与渲染,客户端通过 JSON-RPC 与服务器通信,支持多会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket),为LLM应用提供可扩展的上下文与功能服务。
基于 Model Context Protocol (MCP) 构建的后端服务器,向 LLM 客户端标准化暴露资源、工具与 Prompt 模板,并通过 JSON-RPC 与客户端交互,实现知识管理、工具注册与自定义对话模板的渲染与执行。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及通过 JSON-RPC 与客户端进行通信的能力,支持会话管理、能力声明与多传输通道的扩展性,用于将 AI 客户端(LLM)接入到包含资源、外部工具以及可定制提示的实验环境中。
基于 Model Context Protocol(MCP)的后端服务器,提供资源、工具与 Prompt 的标准化管理与 JSON-RPC 通信,以支持 LLM 客户端按阶段获取上下文、执行计划、验证以及工作流渲染等能力。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具与提示模板的托管与渲染,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(stdio、SSE、HTTP/WS),为大语言模型提供可扩展的上下文服务框架。
基于 Model Context Protocol 的后端服务器实现,提供资源及工具托管、Prompt 渲染等能力,并通过 JSON-RPC 风格的 MCP 协议在 Unix 域套接字上与客户端进行通信与协作。
基于 Model Context Protocol 的服务器实现示例,提供列出线程、获取线程、搜索会话、获取具体会话等工具,用于将本地对话历史以 MCP 方式暴露给 Claude Desktop 等客户端进行导出与查询。
基于 Model Context Protocol 的 Sigil MCP 服务器实现,提供资源与工具托管、Prompt 模板管理,以及通过 JSON-RPC 方式与 LLM 客户端进行上下文和功能交互,支持向外暴露工具查询、调用与渲染能力。
LEMON 是一个面向临床决策工作流的全栈后端,仓库中包含一个 MCP 服务器桥接实现。该桥接通过 JSON-RPC 提供模型上下文服务,核心职责包括托管资源、注册与执行工具、定义与渲染提示模板,并支持多种传输协议(如标准 I/O、Server-Sent Events、WebSocket)。通过 MCP 桥接,客户端可以读取资源、调用工具、获取并渲染提示模板等,以实现对 LLM 的统一上下文服务与扩展能力。仓库提供 MCP 服务器入口脚本 run_mcp.py,以及 Bridge 实现模块,形成一个可运行的服务器端 MCP 实现。
基于 Model Context Protocol (MCP) 的后端服务器实现,聚合 ICC 配置分析、工具执行、资源管理与提示模板渲染,提供标准化的 JSON-RPC 通道供 LLM 客户端查询资源、注册并执行工具、以及获取和渲染提示模板。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与客户端通信的后端服务,支持多传输通道(如标准输入输出、服务器发送事件、WebSocket),具备会话管理、能力声明与策略执行能力,便于向大语言模型客户端提供标准化的上下文信息和外部功能。
基于 Flow Weaver 的 MCP 服务器实现,提供资源、工具和提示模板的标准化管理与对外暴露,通过 JSON-RPC 与 LLM 客户端进行上下文服务、工具调用和提示渲染,支持多传输协议与会话管理,适配 Claude Code、Cursor、OpenClaw 等 MCP 客户端与插件生态。
基于 Model Context Protocol(MCP)的后端服务,提供资源、工具与提示模板的标准化访问,用于让 AI/LLM 客户端以结构化上下文与能力与本地系统进行交互,并通过 JSON-RPC 等传输协议与客户端沟通。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和 UI 渲染等能力,使用 JSON-RPC 通过 /mcp 与客户端通信,支持 Durable Objects、WebSocket、SSE 等传输,面向 LLM 客户端的上下文与功能服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供可执行的 Windows 命令工具集合。通过 JSON-RPC/STDIO 与 LLM 客户端通信,具备命令执行安全控制、进程管理、以及 anti-hang/防僵死机制,旨在为 AI 助手在本地 Windows 环境提供可控的上下文能力与工具入口。
基于 Model Context Protocol (MCP) 的服务器实现,将 Alfanous Quranic 搜索引擎暴露为 MCP 的资源、工具与提示模板,提供面向 LLM 客户端的上下文与功能服务,支持通过 MCP 客户端进行资源读取、工具调用与提示渲染。
基于 Model Context Protocol (MCP) 的后端服务器, provide 资源管理、工具注册与执行、以及 Prompt 模板的定义/渲染,并通过 JSON-RPC 与 LLM 客户端进行通信。服务器负责会话管理、能力声明,并支持扩展的传输协议(如 STDIO、SSE、WebSocket),用于向大语言模型应用提供标准化的上下文信息、数据访问、和外部功能调用能力。该仓库实现了完整的 MCP 服务器端能力,包含资源、工具、知识库、演示/demo、以及多工具链的整合。
基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行,以及 Prompt 模板渲染等 MCP 核心能力,支持 Stdio、SSE、WebSocket 等传输模式并以 JSON-RPC 形式与客户端通信。
基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型(LLM)客户端以标准化的 JSON-RPC 方式提供资源管理、工具注册/执行以及可自定义的 Prompt 模板渲染,具备会话管理、并发浏览上下文、以及对多传输协议的支持,便于在浏览器自动化场景中提供安全、可扩展的上下文服务。
基于 Mark Protocol 的 MCP 服务器实现,向大型语言模型客户端以标准化方式暴露读取资源、执行工具、以及渲染提示模板等能力,并通过 JSON-RPC 进行通信。
基于 Model Context Protocol 的后端服务器,向 MCP 客户端暴露工具、资源与提示模板,支持执行子代理、资源读取与会话管理,提供安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,供 LLM 客户端通过标准化的 JSON-RPC 进行资源读取、工具调用与提示渲染。实现了多传输协议(如 STDIO、SSE、WebSocket)下的通信,具备会话管理与能力声明,旨在为本地化的上下文服务与推理工作流提供结构化的后端支撑。
基于 Model Context Protocol(MCP)的后端实现,提供 Google Workspace API 的工具集并通过 JSON-RPC 以标准化方式与 MCP 客户端通信,支持工具注册、执行调用、会话管理与多种传输场景(如 STDIO)。
基于 Model Context Protocol(MCP)的后端实现,提供资源、工具和提示模板的管理与执行,并通过 MCP JSON-RPC 规范与语言模型客户端进行通信,支持将上下文服务、安全检测和评估功能以工具形式暴露给 LLM 代理。
基于 Model Context Protocol 的后端服务器实现,提供资源、工具与提示模板的统一上下文服务,支持多传输协议(stdio、HTTP 等)并通过 JSON-RPC 与 LLM 客户端通信,适用于 Huly 集成场景。
基于 Model Context Protocol (MCP) 的后端服务器实现,能够托管资源、注册并执行工具、定义并渲染 Prompt 模板;通过 JSON-RPC 提供跨语言/跨进程的上下文服务,并支持多传输协议、会话管理与能力声明,适配 LLM 客户端的上下文服务需求。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 LinkedIn Sales Navigator 的资源访问、工具调用和提示模板等能力。通过 JSON-RPC 方式与 MCP 客户端通信,支持标准的 stdio 传输,内部实现了完整的 MCP 服务端框架与客户端封装,能够在服务端执行多种与 LinkedIn 相关的操作任务并对外暴露为可重用的工具集合。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具、 Prompts 的标准化管理与查询,并通过 JSON-RPC 与 MCP 客户端进行交互,支持多传输通道(如标准输入/输出、WebSocket、SSE),为 AI 代理提供上下文、数据访问和外部功能调用能力。
基于 Model Context Protocol (MCP) 的本地后端服务,提供资源管理、工具注册与执行,以及提示模板渲染,通过 JSON-RPC 与 LLM 客户端进行交互,并支持本地化部署与多种传输方式。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 客户端的上下文与能力提供者,托管资源、注册并执行工具、定义与渲染 Prompts,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 stdio、HTTP、WebSocket)等能力,附带可审计的合规证据与安全保障。该实现定位为 MCP 服务器端架构,适合将 LLM 客户端接入到受控的工具与资源生态中。
基于 Model Context Protocol 的本地 MCP 后端,为 Claude Code 提供浏览器自动化的资源、工具与提示模板服务。通过本地 Unix 套接字与原生主机通信,支持 JSON-RPC 的工具调用与响应,并实现会话管理、扩展工具集、以及多传输协议的通信能力,适用于在本地 Firefox 环境中为 LLM 客户端提供上下文信息与功能。
基于 Model Context Protocol 的 MCP 服务器实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,支持以 JSON-RPC 方式与运行在标准输入/输出、SSE、HTTP 的客户端进行通信。它将 Obsidian 笔记库与快速查询/推理功能整合,为 LLM 客户端提供安全、可扩展的上下文和功能接口。
基于 Model Context Protocol (MCP) 的 PubMed 资源与工具服务端,提供资源托管、工具注册与执行、以及可渲染的 Prompt 模板,支持通过标准的 JSON-RPC 与客户端进行上下文与功能交互,支持_stdio/HTTP/Cloudflare Workers 等传输方式,便于将 PubMed 的数据与检索能力暴露给大型语言模型进行查询、分析与生成。
基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义和渲染等功能,通过 JSON-RPC 与 LLM 客户端进行上下文信息和能力的交互,同时支持多种传输协议以实现安全、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务,提供工具注册与执行、资源管理以及与客户端的 JSON-RPC 通信能力,支持多种传输场景并可在无服务器环境中以内存传输方式运行,适用于将 LLM 与外部功能无缝对接的后端上下文服务框架。
基于 Model Context Protocol (MCP) 的服务器实现,提供资源与工具暴露、提示模板渲染等能力,并通过 STDIO 进行 JSON-RPC 风格的通信,方便 LLM 客户端以统一方式读取资源、调用工具、获取提示模板等上下文信息。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源存储、工具注册与执行、以及 Prompt 模板的管理与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 StdIO、SSE、WebSocket),为大语言模型在应用中的上下文服务提供完整的 MCP 服务端能力。
基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,提供向 MCP 客户端暴露 HTTP/StreamableHTTP 传输的 MCP 接口,以及可选的 stdio 传输,支持从浏览器端抓取的组件上下文实时供 Claude Code 等 MCP 兼容代理读取,并提供多种 MCP 工具(读取元素上下文、撤销/重做、会话历史、可及性与渲染分析等)的访问入口。
基于 Model Context Protocol (MCP) 的本地后端实现,提供资源(Resources)托管与管理、工具(Tools)注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 的 MCP 协议与客户端通信,当前实现以 STDIO 传输为主,支持后续扩展的传输协议。
基于 Model Context Protocol(MCP) 的后端实现,提供资源管理、工具注册与执行、Prompt 模板渲染等能力,支持通过标准输出(stdio)和HTTP传输实现多代理协作音乐生成的 JSON-RPC 服务。
基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器端提供对外的上下文服务。核心职责包括托管与管理资源(Resources)、注册与执行工具(Tools),以及定义与渲染 Prompt 模板,支持与 LLM 客户端通过 JSON-RPC 进行交互。服务器实现了 MCP 的核心接口(如 initialize、tools/list、tools/call),并通过 Bearer API key 进行鉴权、会话管理与策略检查,提供基本的 JSON-RPC 请求处理和响应。代码基于 Node.js + TypeScript,使用 Express 路由挂载在 /mcp 路径,并结合 Prisma 管理数据。
基于 Model Context Protocol (MCP) 的服务器实现,提供通过 JSON-RPC 与 LLM 客户端交互的能力,用于暴露并管理“堆叠差分”工作流的资源、工具、提示模板等上下文信息,支持多种传输方式(此实现以标准输入/输出作为传输)。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供将资源、工具和提示模板以标准化 JSON-RPC 形式暴露给 LLM 客户端的能力。当前实现通过标准输入输出(stdio)接入 MCP 主机,支持本地设备发现、媒体流/投射工具,以及会话管理,具备完整的 MCP 服务器核心功能与运维能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板等能力的注册、执行与渲染,并通过 JSON-RPC 与 MCP 客户端通信;核心组件包含一个可运行的 MCP 服务器、能力注册与同步、以及与 GUI 后端的桥接,使 LLM 客户端能够以标准化方式获取上下文数据、调用外部工具与渲染 Prompt。
基于 JSON-RPC 的多客户端 MCP 服务器代理与 zombie 守护进程,管理本地 MCP 服务器并实现动态工具发现,为 LLM 客户端提供统一的上下文与功能入口。
基于 Model Context Protocol 的 MCP 服务器实现,提供浏览器自动化相关资源与工具的注册与执行能力,并支持通过 JSON-RPC 与 LLM 客户端进行交互,提供会话管理、能力声明以及多传输协议支持,作为后端上下文服务供 LLM 使用。
基于 Model Context Protocol (MCP) 的本地后端实现,提供 JSON-RPC 和 HTTP REST 接口,用于向 LLM 客户端以标准化方式提供资源管理、工具注册/执行及提示渲染等能力,并支持会话管理、跨传输协议通信(如 stdio、HTTP)、以及仪表盘等扩展功能。
在 Android 设备上运行的 MCP 服务器,提供资源管理、工具调用与提示模板的上下文服务,通过 JSON-RPC/HTTP(S) 与 AI 客户端进行交互,实现对设备的远程控制与上下文提供。
基于 Model Context Protocol (MCP) 的服务器实现,作为 Raven 的后端服务,通过 JSON-RPC 2.0 向 LLM 客户端暴露资源、工具和提示模板等上下文能力,支持将 Raven CLI 作为工具执行、资源与对象的查询与管理,并为 agent 与工具链提供统一的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具管理、提示渲染、以及通过 JSON-RPC 与客户端通信,支持 STDIO 与 SSE 传输并集成认证/授权与会话管理等完整后端能力。
基于 Model Context Protocol (MCP) 的服务器端实现,向大语言模型客户端提供资源、工具与提示模板等上下文服务,并通过 JSON-RPC 进行通信,包含认证、会话管理与多种传输能力,适用于在本地自托管环境中为智能代理提供上下文与外部功能调用能力。
基于 Model Context Protocol (MCP) 的后端服务,将 Live CSS Editor 作为 MCP 服务器,向 LLM 客户端提供 Resources、Tools、Prompts,并通过 JSON-RPC 与客户端通信,支持资源管理、工具执行、以及模板渲染等能力,适配多传输协议和会话管理。
基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源托管、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 stdio、SSE、WebSocket),实现自托管的上下文服务框架。
基于模型上下文协议(MCP)的 Feishu/Lark MCP 服务器实现,提供 send_user_feedback、send_file_to_feishu、update_card、wait_for_interaction 等工具,通过 JSON-RPC 2.0 与客户端进行通信,并通过标准输入输出(stdio)实现传输,与 Claude Agent SDK 的工具集无缝衔接,支持会话管理与多工具渲染。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染能力,通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 StdIO/SSE/WebSocket)以在本地模型对话中提供统一的上下文服务。
基于 Fray 的 MCP(Model Context Protocol)实现的后端服务器,将 payload 数据、WAF 指纹和 CVE 细节以工具形式暴露给 AI 助手调用,支持通过 JSON-RPC 与客户端通信,提供工具注册、资源管理和会话上下文能力,便于在 AI 工作流中进行上下文驱动的安全测试与结果分析。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文信息托管和功能调用,支持会话管理与跨会话记忆,面向自动化代码与软件工程场景的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行,以及可通过 JSON-RPC 2.0 与 LLM 客户端交互的接口,支持将电视剧集数据、查询工具和资源以标准化方式暴露给 AI 助手。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及资源快照渲染等能力,采用 JSON-RPC 与 LLM 客户端通信,支持通过标准的 stdio/SSE 传输与多种客户端集成,用于向模型提供上下文信息和外部功能调用能力。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源读取、工具执行、以及上下文相关能力,能够通过 Claude Code 等 LLM 客户端以 JSON-RPC 风格进行交互,向客户端提供工作区状态、Ralph 循环状态、团队活动等资源,并暴露可执行的工具集和资源查询、记忆等能力,支持插件式扩展与多机器协作场景。
基于 Model Context Protocol (MCP) 的后端实现,用于向 LLM 客户端以标准化方式提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持多种传输方式(当前以 Stdio 为主)。它包含工具注册、任务流管理等核心能力,旨在为学术研究相关的 LLM 应用提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的服务器端实现,Routa 提供完整的 MCP 服务端能力,通过 JSON-RPC/Federated 流式通知向 LLM 客户端暴露资源、工具与提示模板,并支持多工作流的代理协同与会话管理。该仓库不仅包含 MCP 服务端核心逻辑,还实现了与 ACP 生态的深度集成与客户端路由接口。
AdaptivMCP 是一个自托管的 MCP 服务器实现,集合了 GitHub/Render 自动化工具、资源管理、工具注册与执行,以及提示模板渲染等功能,并通过 JSON-RPC 与 LLM 客户端通信。支持多传输协议(Streamable HTTP / SSE),并提供注册/诊断 UI,方便与 OpenAI/ChatGPT MCP 连接器对接与调试。
基于 Model Context Protocol (MCP) 的后端服务,提供资源存储、工具注册与执行、以及 Prompt 模板的渲染与管理,通过 JSON-RPC 与客户端通信,支持 HTTP/API、STDIO 等传输方式,并集成了 OpenCode Manager、OAuth 2.1 等扩展功能,适用于向 LLM 客户端提供可扩展的上下文与能力服务。
基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,通过 SSE+JSON-RPC 提供资源、工具和提示的托管、注册、执行与渲染,包含会话管理、权限控制、Web UI、数据库与缓存集成,支持多种传输协议,面向 AI 代理与 IDE 集成的上下文服务框架。
基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持 JSON-RPC 通信与多传输接入,面向 LLM 客户端提供统一的上下文与功能入口。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板管理,并通过 JSON-RPC 与 MCP 客户端进行通信,支持流式传输(Streamable HTTP)等传输方式,以及 OAuth 认证、会话管理和工具分发能力,能够直接被 MCP 客户端调用实现多模态上下文服务。
基于 Model Context Protocol (MCP) 的服务器实现,提供标准化的资源、工具和 Prompt 管理,并通过 JSON-RPC 与 LLM 客户端进行交互;实现对 MCP 操作的 AI 可调用工具化暴露、会话管理以及多传输协议支持(如 Stdio/SSE/WebSocket),用于在 Solana 上构建隐私保护的 AI 任务协作后端。
基于 Model Context Protocol 的 MCP 服务器实现;将 Quorum 的多AI协同推理能力以标准化的 JSON-RPC 服务形式暴露给 MCP 客户端,支持资源/工具/提示模板的管理与渲染,并通过标准化接口与客户端进行通信。
基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供统一的资源管理、工具注册与调用,以及可定制的 Prompt 渲染能力;通过 JSON-RPC 2.0 进行通信,支持多种传输协议(如 stdio、SSE、WebSocket),以实现安全、可扩展的上下文服务。
基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持 Claude Code 的多主体协作与扩展能力。
基于 Model Context Protocol (MCP) 的后端服务,向大语言模型客户端提供对 Purdue Brightspace 数据的资源、工具和提示模板等上下文能力,采用标准化的 JSON-RPC 交互,支持多传输协议(如 STDIO)。该服务器通过注册多种工具(如获取课程、作业、成绩、公告、课程内容等)、管理认证令牌并访问 Brightspace API,为 LLM 客户端提供安全、可扩展的上下文服务框架。
基于 zkmin 的 MCP 服务器实现,提供资源、工具与提示模板的托管与渲染;通过 JSON-RPC 与客户端通信,支持 HTTP/SSE 传输,用于向大语言模型客户端提供可上下文化的后端能力与交互功能。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具执行与提示模板渲染等功能,统一以 JSON-RPC 形式向 LLM 客户端暴露上下文信息与能力,支持多传输通道(HTTP/SSE)并具备会话管理、能力声明与安全性校验。
基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化方式提供股票量价分析所需的数据、工具和提示模板,支持数据读取、工具执行、以及可渲染的提示模板,采用 JSON-RPC 通过 STDIO 等传输方式与客户端交互。
基于 Model Context Protocol (MCP) 的本地服务器实现,提供对浏览器标签、分组、窗口等资源的访问、工具的注册与执行,以及提示模板的定义与渲染,供外部大语言模型(LLM)客户端通过 JSON-RPC 进行上下文查询、操作与交互。
基于 Model Context Protocol 的 MCP 服务器实现,作为 Copilot Studio 的后端上下文与工具提供者。核心职责包括托管与管理资源、注册和执行工具,以及定义和渲染提示与 UI 资源,并通过 MCP 的 JSON-RPC 2.0 协议与客户端进行通信(支持标准的初始化、工具列表与工具调用等请求,当前实现通过标准输入输出传输)。
基于 Model Context Protocol(MCP)的后端服务,暴露本地 Zotero 库的资源、工具和 Semantic Scholar 集成,供大语言模型客户端通过 JSON-RPC 进行交互与上下文获取。
基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,提供对 Final Cut Pro X 的 FCPXML 文件进行分析、修改和自动化的标准化 JSON-RPC 接口,支持资源发现、工具执行、提示渲染等核心能力,便于与 LLM 客户端协作完成上下文管理与功能调用。
基于 Model Context Protocol (MCP) 的后端服务器实现,聚合多家生物医药数据库的工具与资源,通过 JSON-RPC 与 LLM 客户端通信,提供资源托管、工具注册与执行、提示模板渲染等能力,并支持统一端点与各个 API 的专用端点,面向将来将上下文信息与功能模块化提供给大语言模型进行后端上下文服务。该仓库实现了一个以 FastMCP 为核心、覆盖 Reactome、KEGG、UniProt、Omim、GWAS、PubMed、OpenFDA、MyVariant、BioThings、NCI 等多家 API 的 MCP 服务器集合。
基于 MCP 的后端服务,向 LLM 客户端提供循环肽分析工具、资源和提示模板,并通过 JSON-RPC 协议进行通信。
在 Obsidian 中实现一个基于 Model Context Protocol 的 MCP 服务器,提供资源、工具与提示模板的后端服务,并通过 JSON-RPC 与客户端进行交互,支持并发会话、HTTP/HTTPS 传输以及安全访问控制。
基于 Model Context Protocol (MCP) 的 Poznote 后端服务器实现,利用 FastMCP 在 HTTP 流式传输上通过 JSON-RPC 提供笔记资源、工具方法与数据访问能力,支持多用户环境与简易的扩展工具集。该服务器可让大语言模型(LLM)以统一、标准化的方式读取笔记、执行笔记操作、查询工作区与文件等上下文信息。
基于 Model Context Protocol(MCP)的后端服务器,实现资源对接、工具注册/执行与提示模板渲染等能力,向大语言模型客户端提供标准化的上下文服务,通过 JSON-RPC 进行通信,支持多传输协议和会话管理,适用于多实例协同的上下文服务场景。
基于 Buttondown API 的 MCP 风格后端服务,为大语言模型客户端提供资源访问、工具调用和上下文渲染等能力。通过 JSON-RPC 与客户端通信,支持多种传输方式(如标准输入输出、SSE、WebSocket),实现对 Buttondown 邮件、订阅者等数据的安全、可扩展访问。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理以及 JSON-RPC 通信,支持标准化的上下文服务与多传输协议。
基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化的 JSON-RPC 接口向 LLM 客户端提供 Recharge API 的资源、工具和提示模板等上下文服务,并通过标准传输(如 stdio)与客户端进行通信。
基于 Model Context Protocol (MCP) 的服务器端实现,用于对代码项目进行上下文分析、向量化检索和外部工具调用的统一管理。通过 JSON-RPC 风格的 MCP 客户端通信,服务器端负责会话管理、能力声明,以及资源(向量/元数据)的托管、工具执行和 Prompt 模板的渲染。实现了完整的 MCP 服务端逻辑(8 个工具),并使用 ChromaDB 进行向量存储、OpenAI 模型进行代码分析与嵌入生成,提供本地 STDIO 传输的运行能力,同时包含一个可选的 Web 管理端供查看和管理索引数据。该实现可直接作为 MCP 服务器使用或作为开发参考与扩展。
基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源管理、工具执行以及提示模板的能力,核心通过 registerTool 将大量 Google Workspace 相关操作暴露为可调用的工具集,支持以 Stdio 传输等多种通信方式进行上下文服务与会话管理。
基于 AWS SageMaker 的 MCP 服务器实现示例,提供一个可运行的 MCP 服务端,用于注册并暴露一个 tooling(工具)给 LLM 客户端通过 MCP 协议进行调用。该示例直接使用 mcp.FastMCP 库,通过 stdio 传输启动服务,并注册一个将 SageMaker 请求转发到 SageMaker 推理端的工具。
基于 Model Context Protocol 的后端服务,向大语言模型(LLM)客户端提供 Currents 的测试与持续集成(CI)数据的资源、工具和提示模板,并通过 JSON-RPC 进行交互,以实现上下文信息托管、工具调用以及定制的对话模板渲染。
一个基于 Model Context Protocol 的 MCP 服务器实现,使用标准的 JSON-RPC over STDIO 与 MCP 客户端通信,能够托管和管理资源、注册并执行工具、定义并渲染 Prompt,并为 LLM 客户端提供上下文服务和功能调用能力。
基于 Model Context Protocol 的 MCP 服务器实现,用于以标准化的 JSON-RPC 方式向 LLM 客户端提供资源、工具及上下文相关功能,采用标准输入输出(STDIN/STDOUT)进行通信,便于 Claude Code 等客户端对接执行与查询。
基于 AtomCLI 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端以标准化方式提供资源、工具、提示模版与会话管理等上下文能力,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与灵活的配置扩展。
基于 Model Context Protocol 的 MCP 服务器实现,作为 Grafana 插件后端,负载资源管理、工具注册与执行、提示渲染等功能,并通过 JSON-RPC 与客户端通信,支持多传输协议、RBAC、多租户等场景的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源数据、工具执行能力和 Prompt 模板渲染等上下文服务,支持通过标准化的 JSON-RPC 方式交互,并可通过 STDIO、SSE/HTTP 等传输协议进行通信与会话管理。
一个基于 Model Context Protocol (MCP) 的服务器实现与示例集合,包含使用 FastMCP 的 Python 版本服务器、SSE 与 Streamable HTTP 传输模式,以及用于注册工具、提示、资源等组件的示例脚本,支持通过 JSON-RPC 与客户端进行资源访问、工具调用、提示获取等上下文服务的交互,适合对接 LLM 客户端进行 MCP 服务端能力测试、扩展与演示。
基于 Model Context Protocol (MCP) 的 Gemini 模型后端实现,提供资源、工具和提示模板的上下文服务,通过 JSON-RPC 与客户端通信,并以 stdio 传输实现 MCP 服务器。
一个基于 Model Context Protocol(MCP)的 OmniFocus MCP 服务器实现,提供以标准化方式向 LLM 客户端暴露上下文数据、工具和提示模板的能力。服务器端处理 MCP 请求并返回 JSON-RPC 风格的响应,配合 macOS 环境的 OmniFocus 插件桥接实现,实现任务、项目、标签等数据的查询与管理。
基于 Model Context Protocol 的 MCP 服务器实现,提供将速率测试后端数据以 MCP 标准暴露给大语言模型客户端的能力;通过 JSON-RPC 风格的输入输出,在 stdin/stdout 方式下与客户端对话,支持初始化、工具列表与工具调用等核心功能,便于搭建可扩展的 LLM 辅助上下文服务入口。
基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化的 JSON-RPC 方式暴露 Flutter 应用的资源/工具/提示模板等上下文信息,并通过多传输协议实现会话管理、能力声明与扩展能力,帮助 AI Agent 在 Flutter 应用中进行自动化控制与测试。
基于 Model Context Protocol (MCP) 的服务器实现,将 Max/MSP 的补丁、对象、工具等上下文信息以标准化的 JSON-RPC 形式提供给 MCP 客户端(如 Claude Code 这类集成工具),支持通过 WebSocket 与 stdio 两种传输通道进行通信,并包含对多补丁、工具集、资源访问、以及补丁渲染模板等功能的实现与管理。
基于 Model Context Protocol 的 MCP 服务器实现,将本地技能暴露为 MCP 工具,支持 Claude Code、GitHub Copilot 等代理直接调用技能,从而实现本地技能的 Agent-Native 访问与执行。
基于 Model Context Protocol 的云端 WordPress MCP 服务器实现,运行在 Cloudflare Workers,提供多租户的资源、工具和 Prompt 管理能力,并通过 MCP JSON-RPC 协议与客户端进行交互。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端通信,支持本地 IPC 与 WebSocket 等传输方式,面向 LLM 客户端提供可扩展的上下文服务。
基于 Model Context Protocol 的后端服务器,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、跨传输协议接入,具备嵌入向量、图谱化决策存储等能力,适用于 Claude Code/Desktop/OpenClaw 等环境的上下文服务与功能扩展。
基于 Model Context Protocol (MCP) 的 Mollie API 服务端,向大型语言模型(LLM)客户端以标准化方式提供 Mollie 支付信息、查询工具与 prompts,通过 JSON-RPC 与客户端通信并通过标准传输(如 Stdio)实现扩展性与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源/工具的注册、查询与执行,并通过 JSON-RPC 进行通信以实现后端上下文服务。
基于 MemFlow 的 MCP 服务器实现,向大型语言模型客户端提供 Obsidian Vault 的上下文、资源访问、工具执行与可定制的提示模板等能力;通过 JSON-RPC/HTTP 及标准输入输出等多种传输方式与客户端进行交互,并支持本地化、隐私优先的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端以标准化方式提供上下文信息与能力。服务器托管资源、注册并执行工具、定义与渲染 Prompt 模板;通过 JSON-RPC 进行通信,支持会话管理、能力声明,并可通过多种传输途径如标准输入输出、SSE、WebSocket 等与客户端协作,构建安全、可扩展的代码上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,为 OpenClaw 等 LLM 客户端提供标准化的资源、工具和提示模板服务,支持 StdIO/HTTP SSE 等传输方式,通过 JSON-RPC 与客户端通信并暴露 MCP 工具与服务器信息。
基于 Model Context Protocol (MCP) 的服务器端实现,提供资源(Resource)、工具(Tools)和提示模板(Prompts)的注册、管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议(如 Stdio、HTTP 流和 SSE)。实现了会话管理、能力声明以及对外暴露的内存引擎(OpenMemory/SQlite),可用于在本地或远程环境中为LLM客户端提供统一的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,实现对 Obsidian 记忆库的读写、资源管理与工具执行的统一接口,提供 JSON-RPC 风格的请求/响应,包含认证、日志、路由与可扩展的插件架构,支持与多种前端/LLM 客户端协作。
基于模型上下文协议(MCP)的后端服务器实现,提供通过 MCP 客户端以标准化 JSON-RPC 方式访问 Bitbucket Cloud 的资源、工具和提示模板,支持在 stdio 传输下与 LLM 应用对接。
基于 Model Context Protocol 的 MCP 服务器实现,能够托管 Dynatrace Managed 环境的资源、注册并执行工具、定义并渲染提示模板,并通过 JSON-RPC 与多环境客户端进行通信,提供本地或远程传输模式的上下文服务与能力声明。中间集成了对资源、工具、提示、以及多环境 Dynatrace 数据的统一管理与查询能力。
基于 Model Context Protocol 的多服务器后端实现,向 LLM 客户端提供资源、工具及可渲染的提示模板等上下文服务,通过 JSON-RPC 与客户端进行通信,支持多种传输方式,具备注册、管理、执行工具以及安全治理等能力。
基于 Model Context Protocol (MCP) 的后端服务器,向 MCP 客户端提供资源(数据访问)、工具(可执行外部功能)以及提示模板(Prompts)的统一上下文服务,采用 JSON-RPC 与客户端通讯,支持本地/标准化传输方式,集成 Notion 发表与 GitHub 数据源等能力,面向 AI 驱动的工程上下文工作流。
基于 Model Context Protocol (MCP) 的轻量级后端服务器,提供对 LLM 客户端的上下文服务(资源、工具、提示等),通过 JSON-RPC 进行通信,支持以标准化方式读取资源、注册并执行工具、渲染 Prompt 模板,核心实现包含服务器端的请求/响应处理、会话管理与多传输协议支持(以 stdio 为核心的实现,具备行分隔及 Content-Length framing 方式)。
基于 Model Context Protocol (MCP) 的 Bedrock 模型信息查询与管理服务器,提供模型提供商、模型列表和推理配置等资源,支持以标准化 JSON-RPC 形式与客户端进行交互。
基于 Model Context Protocol (MCP) 的 Java 实现的 MCP 服务器端,提供对资源、工具、提示的注册与执行,以及会话管理与多传输协议(REST/Servlet/SSE、Streamable HTTP)的支持,通过 JSON-RPC 与客户端进行通信。
基于 Model Context Protocol (MCP) 的后端服务实现,提供对资源(Resource)、工具(Tools)及提示模板(Prompts)的管理与执行能力,并通过标准的 JSON-RPC 与客户端进行通信。支持多服务器配置、OAuth 与微支付等扩展能力,能够作为 LLM 客户端的上下文与功能提供端。
基于 Model Context Protocol 的可扩展后端,提供资源、工具与提示模板的 MCP 服务,通过 JSON-RPC 与 LLM 客户端交互,支持插件化视觉分析能力和多种传输方式。整个体系以 FastAPI/uv 工具链实现服务器端能力管理与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,提供任务、时间块、子任务、用户等资源的管理和工具注册,面向 LLM 客户端通过 JSON-RPC 进行统一上下文服务与能力调用,支持 Stdio 等传输协议。)
基于 Model Context Protocol(MCP)的后端服务器集合,向大型语言模型客户端以标准化方式提供上下文信息与功能,包括托管资源、注册与执行工具,以及定义/渲染提示模板;支持多种传输协议(Stdio、SSE、HTTP),通过 JSON-RPC 与客户端通信,适用于 Claude Code 等工作流场景。
基于 Veritas Kanban 的 MCP 服务器实现,提供以 JSON-RPC 方式向 AI 助手/客户端暴露资源、工具、提示模板等上下文能力的后端服务,并支持多传输通道与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,提供 maestro_status 工具用于向 Maestro UI 汇报会话状态,并通过 JSON-RPC 与客户端交互,支持 initialize、tools/list、tools/call、notifications/initialized 等消息。服务器通过 STDIO 与 MCP 客户端通信,兼容 Maestro 的状态上报与会话管理,集成在 Maestro 的 Tauri 应用中用于多会话上下文服务。
基于 Model Context Protocol (MCP) 的多租户后端服务器,实现资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,并通过 JSON-RPC 与客户端进行通信,支持 HTTP/Streamable HTTP 和 SSE 等传输协议。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与 Prompt 模板的注册、管理、执行与渲染,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式与会话管理,便于 LLM 客户端获取上下文信息与外部功能。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具执行与提示模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 两种传输模式,便于将 AI 助手接入 Phoebe API 的上下文与功能。
基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务;通过 JSON-RPC 进行请求/响应,并支持会话管理、能力声明与多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。
基于 Model Context Protocol 的后端服务实现,提供资源、工具、提示等统一管理,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 SSE)。完整的 MCP 服务器端实现,包含服务初始化、挑战/结果管理、评测与分析、以及对外暴露的健康端点。
基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端通过标准化的 JSON-RPC 方式提供资源、工具与提示模板等上下文信息,并支持开发/生产两种模式、以及通过标准传输通道进行通信。
基于模型上下文协议(MCP)的后端服务器,将 CyberChef 的海量数据处理操作和工具暴露给对话式AI客户端,支持资源管理、工具注册与执行,以及可定制的提示模板渲染,且通过 JSON-RPC 与客户端通信,覆盖多种传输方式(STDIO、HTTP、SSE、WebSocket),帮助生成式AI在执行数据处理任务时获得稳定、可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供对 Sirchmunk 的资源托管、工具注册与执行,以及提示模板渲染等能力,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端服务,连接 PostgreSQL 数据库,为大语言模型客户端提供统一的资源、工具和上下文能力,以实现安全、可扩展的上下文访问与操作。
基于 Model Context Protocol(MCP)的服务器端实现,为 Claude Code 插件提供一个“交互式 Markdown 审阅”工具。通过 MCP 的 JSON-RPC 风格调用,LLM 客户端可以注册工具、读取可用工具、调用 start_review 进行 Markdown 内容审阅,并在本地浏览器中以交互界面收集审核结果,服务器再返回结构化结果。
基于 Model Context Protocol(MCP) 的后端服务器实现,提供资源管理、工具注册与调用、以及 Prompt 模板渲染等能力,供 LLM 客户端以标准化方式获取上下文、数据与外部功能。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/管理、Prompt 的定义与渲染,以及会话管理与协议能力声明,支持通过标准输入输出或流式 HTTP 等传输协议与客户端进行 JSON-RPC 通信,用于为大型语言模型(LLM)提供上下文信息与外部功能访问能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等上下文服务,能够通过 JSON-RPC 与 LLM 客户端进行资源读取、工具调用与模板获取等交互,并支持多种传输协议以实现安全、可扩展的上下文服务。
Roo Extensions 是一个面向开发者的 MCP 服务器生态,基于 Model Context Protocol 提供面向 LLM 客户端的资源管理、工具注册与执行以及可定制 Prompt 渲染等能力,核心通过 JSON-RPC 与客户端通信,并在多传输协议(如 Stdio、SSE、WebSocket)下提供会话管理、能力声明与扩展性,支持多 MCP 实例协同工作与跨机器同步。仓库中包含多个内部/外部 MCP 实例、同步系统 RooSync、SDDD 跟踪等组件,构成完整的后端上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,使用 SQLite 数据库提供资源、工具与提示模板管理,供 LLM 客户端查询并执行外部功能,通过 JSON-RPC 与客户端进行通信,并支持会话管理与多种传输形式。
基于 Model Context Protocol(MCP)理念的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIN/STDIO、SSE、WebSocket)与会话管理,目标是在大语言模型客户端上提供结构化、可扩展的上下文服务。该仓库包含服务器端示例、核心数学与治理逻辑、工具与会话处理等模块,适用于搭建多智能体后端上下文服务场景。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供 MCP 的核心能力:注册并执行工具(Tools)、托管资源与数据,以及通过 JSON-RPC 风格的交互向 LLM 客户端提供上下文与功能,支持多传输协议(stdio 与 HTTP/SSE)以便与不同的 AI 客户端对接。项目中包含可运行的 MCP 服务器代码和 HTTP/SSE 传输实现,适合作为对接大模型代理的后端服务。
基于模型上下文协议(MCP)的 Verkada API 后端服务器,提供资源管理、工具注册与执行,以及提示模板渲染等能力,通过 JSON-RPC 与大语言模型客户端进行通信,具备本地部署与扩展能力,并内置对 Verkada API 的工具集和请求处理框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 CoinBase Advanced Trading API 的资源管理、工具注册与执行,以及用于 Claude 等大语言模型的提示模板渲染与自助交易能力。服务器通过 JSON-RPC 与客户端通信,支持 HTTP(/mcp)、标准输入输出(stdio)等传输方式,并内置工具与提示注册、会话管理与安全日志处理。实现不仅包含完整的 MCP 服务端逻辑,还提供大量工具的注册、Prompts、以及用于自动交易技能的集成示例。
基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端以标准化方式提供 GitHub Actions 的上下文信息、工具和提示模板,并通过 JSON-RPC 与客户端通信,支持以 Stdio 传输模式运行,便于在 Claude Desktop 等环境中集成使用。
基于 Model Context Protocol 的 MCP 服务端实现,负责与 MCP 客户端通过 JSON-RPC 协议通信,注册并执行外部工具、管理资源与提示模板,并支持多种传输方式(如 STDIO、HTTP SSE),提供会话管理、能力声明及外部工具的接入能力。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具执行与提示模板渲染等功能。服务器通过 JSON-RPC 与客户端进行通信,支持资源读取、工具注册/执行、以及提示模板的定义与渲染,並可通过多种传输方式(如标准输入输出、SSE、WebSocket)扩展到不同的应用场景。该实现与 Kernle 的核心存储/推理能力紧密集成,面向企业/研究场景提供安全、可扩展的上下文服务后台。
基于 Model Context Protocol (MCP) 的 BoxLang 后端服务器实现,提供对 Resources、Tools 与 Prompts 的注册、管理与暴露,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 客户端提供标准化的上下文服务、会话与能力声明。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的托管与通过 JSON-RPC 与客户端通信的后端服务。
基于 Model Context Protocol(MCP)的广告自动化后端实现,提供资源、工具和 Prompt 模板的托管与管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。
一个基于 Model Context Protocol (MCP) 的后端服务,加载内置与外部 SOP,将它们作为可调用的提示注册,通过 FastMCP 提供 JSON-RPC 服务供 MCP 客户端访问,用于向大型语言模型提供结构化上下文和功能性提示。
基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供 STRIDE 威胁建模框架、工具调用与报告生成功能,支持通过 JSON-RPC 与 LLM 客户端进行上下文管理与协作。
基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。
基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端提供上下文信息、工具调用通道与 Prompts 渲染等功能;核心通过 JSON-RPC 与客户端通信,示例实现包含最小化的服务器以支持集成测试场景。
基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。
基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行、提示模板管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议、会话管理与权限策略,以为大模型客户端提供安全、可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源访问、以及与 LLM 的对话上下文渲染等核心能力。通过 JSON-RPC 与客户端通信,采用 STDIO 传输实现本地进程间通信,适用于 Claude Code 的 Telegram 插件后端场景。该实现涵盖工具调用、批量通知、审批流、AFK/监听等功能模块,具备完整的服务端能力与测试用例。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 MCP 服务器进程的托管、注册、JSON-RPC 桥接和多会话管理,供 LLM 客户端通过 MCP 获得资源数据、调用工具与渲染 Prompt 模板等上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 客户端通信,支持多种传输通道,面向让大语言模型客户端高效获取上下文、能力和工具的后端服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。
基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。
基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供资源、工具和 Prompt 的标准化上下文服务,并通过 JSON-RPC 进行通信;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力,适用于将 Tana 数据和功能暴露给 AI 模型进行推理、调用和渲染。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 服务器提供多昵称通知、工具执行和提示模板渲染,并通过 JSON-RPC 与 MCP 客户端通信。
基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。
基于 Model Context Protocol(MCP) 的后端服务,作为本地大模型应用的上下文提供者。该服务器托管与管理 Resources(数据资源)、Tools(可注册并供 LLM 调用的外部功能)以及 Prompts(Prompt 模板渲染),通过 JSON-RPC 与客户端通信,完成会话管理、能力声明以及跨传输协议(如 Stdio、SSE、WebSocket)的上下文服务,方便编辑器、IDE 以及本地模型进行组合式推理与扩展。仓库中明确包含 MCP 集成组件、启动脚本及相关文档,具备对 MCP 客户端的完整支持能力。
基于 Model Context Protocol 的 MCP 服务器实现集合,核心职责是以标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息和能力:托管与管理 Resources、注册与执行 Tools,并定义/渲染 Prompt 模板,同时支持会话管理与多传输协议,面向 Claude Code 等 LLM 应用的上下文服务后端。该仓库包含可运行的服务模板和示例服务器实现,旨在帮助开发者快速搭建符合 MCP 的后端服务。
基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。
基于 Model Context Protocol (MCP) 的后端实现,承担资源、工具、 Prompt 模板等的托管与管理,并通过 JSON-RPC 与 LLM 客户端进行通信,提供会话管理、能力声明、以及多传输协议支持(HTTP、SSE、WebSocket)的上下文服务框架,供前端仪表盘、Captain 编排与代理执行组件协同工作。
基于 Model Context Protocol 的 MCP 服务器,实现对 XPR(Proton 区块链)的工具查询、数据访问与外部部署能力,通过 JSON-RPC 与 MCP 客户端通信,并提供 Azure Functions 部署支持。
基于 Model Context Protocol 的后端 MCP 服务器实现,作为后端上下文服务提供商,向 LLM 客户端以标准化的 JSON-RPC 调用提供资源、工具与提示模板等能力,并通过 MCP 协议进行请求处理与响应返回。该仓库内实现了服务器端工具注册、请求分发以及对 Supabase 等后端的数据访问逻辑,可用于对接外部大模型应用场景。
基于 Model Context Protocol 的 MCP 服务器实现,集成在 EllyMUD 游戏后端,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,便于与大型语言模型或外部 AI 客户端通过 JSON-RPC 进行上下文与功能交互。
基于 Model Context Protocol(MCP)的后端服务器实现,提供面向大语言模型客户端的上下文服务能力,包含工具(Tools)、资源(Resources)和提示模板(Prompts)的注册、管理与执行,支持通过 Spring Boot 部署并对接支持 MCP 的 Agent 客户端。
基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染,采用 STDIO 传输用于与 MCP 客户端进行 JSON-RPC 风格的通信,支持多模态上下文的读取、操作和交互。
基于 Crackerjack 的 MCP(Model Context Protocol)服务器实现,提供资源托管与管理、工具注册与执行、以及可渲染的 Prompt 模板等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 WebSocket、StdIO、SSE),为 LLM 客户端提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的管理与执行,支持通过 JSON-RPC 与 MCP 客户端通信,并具备标准化的服务器端会话管理和多传输模式能力(如 StdIO)。
基于 Model Context Protocol 的 AutoHotkey v2 MCP 服务器,提供资源、工具、提示词(Prompts)的管理与上下文注入,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE),实现会话管理和能力声明以服务化地提供上下文服务。
基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。
基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。
基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册/执行、提示模板等核心能力,支持 JSON-RPC 通过 WebSocket/HTTP 与客户端通信,内置量子安全加密(Ed25519 与 Dilithium 的混合模式)、W3C DID 身份、审计日志和会话管理,满足企业级的可扩展上下文服务需求。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。
基于 Model Context Protocol 的后端服务,提供资源、工具与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端进行交互,当前实现以 STDIO 传输为主要通讯方式,能够托管本地知识库中的日常简报、事实、理事会简报等资源,并暴露查询与渲染工具以支持多样化的 LLM 交互场景。
基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。
基于 Common Lisp 的 MCP(Model Context Protocol)服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,并通过 JSON-RPC 进行请求/响应。支持多种传输协议(stdio、TCP、HTTP),为大语言模型(LLM)客户端提供可扩展、可安全的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的注册、路由与 JSON-RPC 响应,作为 Elixir 应用的后端服务,与 Claude Code CLI 控制协议配合使用(支持 in-process 服务器模式)。
基于 MCP 协议的高性能后端服务器实现,提供与 IBKR TWS/Gateway 交互的工具、市场数据、账户信息等能力,通过 JSON-RPC 形式对接 MCP 客户端,并以 Axum 构建的 HTTP/WebSocket 服务提供可扩展的上下文能力。
基于 Model Context Protocol 的后端服务器,为 AI 客户端提供对 Mock Service Worker (MSW) 的统一上下文服务。服务器负责托管资源、注册可执行工具、定义并渲染提示模板,并通过 JSON-RPC/WebSocket 等传输与浏览器中的 MSW 服务工作者进行动态交互和控制。
基于 MCP 的后端服务器实现,提供通过 Cheat Engine 与 LLM 客户端之间的 JSON-RPC 通信,支持内存读取、工具调用以及提示模板渲染等上下文服务的本地化 MCP 服务器。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染能力。通过 JSON-RPC 形式与客户端通信,支持将 LLM 的推理与外部设备(如 Minecraft 实例)进行无缝协作,具备会话管理、能力声明与多传输协议扩展能力(如 Stdio、SSE、WebSocket)的后端上下文服务框架。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供资源管理、工具注册/执行、Prompt 模板定义与渲染等能力,作为后端上下文服务框架供 LLM 客户端通过 JSON-RPC 进行资源访问、外部功能调用与交互模板渲染。仓库中包含多个可运行的 MCP 服务器示例,支持通过标准化接口对接 Claude/LLM 客户端。
基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*
基于 Model Context Protocol(MCP)的服务器实现,提供资源(Notes/边/图)管理、工具注册与执行、以及 Prompt 模板渲染等能力,供大语言模型(LLM)客户端通过 JSON-RPC 调用获取上下文信息、执行外部功能与搭建对话场景。
TEQUMSA_NEXUS 仓库提供以 Model Context Protocol(MCP)为核心的后端服务器实现,涵盖资源、工具、提示模板等资源的托管与管理,以及通过 JSON-RPC 风格接口进行跨节点协同与数据访问,为大语言模型(LLM)客户端提供可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的托管与管理,支持 JSON-RPC 客户端交互,并具备会话管理与多传输协议扩展能力,适用于向 LLM 客户端提供可访问的数据、外部功能与定制化提示。
基于 Model Context Protocol (MCP) 的后端服务器,实现了资源(数据)托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 方式与客户端通信,具備会话管理、能力声明以及对多传输协议的支持,用于为 LLM 客户端提供可扩展的金融上下文服务。
基于 Model Context Protocol (MCP) 的服务器实现,作为 RSSMonster 应用的 MCP 服务端,向大型语言模型(LLM)客户端提供资源访问、工具执行和提示模板渲染能力。服务器通过 JSON-RPC 与客户端通信,提供对 RSS/文章、分类、订阅等资源的托管与管理,注册并执行工具以调用外部功能,以及渲染与自定义提示模板,且具备会话管理和能力声明,支持通过 HTTP(以及未来扩展的传输协议)进行多路传输。核心实现包含完整的服务端路由、数据库模型、MCP 工具集以及与 AI 相关的分析能力。
基于 Model Context Protocol 的 MCP 服务器实现,用于托管与执行 BL1NK Skills,并集成 AWS Bedrock Nova Lite 进行技能生成与推理,支持资源、工具、提示模板的标准化管理与 JSON-RPC 通信。
该项目为 Storybook 提供 MCP (Model Context Protocol) 服务器,帮助 AI 代理高效理解 UI 组件信息并辅助开发流程。
提供基于 Model Context Protocol (MCP) 的本地服务器,为 LLM 客户端提供 LlamaIndex 生态系统的文档上下文和工具调用能力。
Coco MCP服务器是 wearable 设备 coco 的后端实现,通过 Model Context Protocol (MCP) 标准协议,为 LLM 应用提供音频数据资源访问和向量检索能力。
TinyMCP Server SDK 是一个轻量级的 C++ SDK,用于构建基于 Model Context Protocol (MCP) 的服务器,专注于通过 JSON-RPC 和 Stdio 提供工具执行能力。
基于Spring MVC和SSE实现的MCP服务器,支持通过JSON-RPC协议与LLM客户端进行上下文信息和功能交互。
一个基于MCP协议的Fetch服务器,可以将URL内容抓取并转换为Markdown格式,优化AI模型的内容输入。
Emmett MCP 是一个用于构建 Model Context Protocol (MCP) 服务器的 Emmett 框架扩展,支持 SSE 传输协议,为 LLM 客户端提供上下文信息和工具能力。
基于 Internet Computer 的最小化 MCP 服务器实现,目前仅支持工具 (Tools) 功能和 Streamable HTTP。
通过 JSON-RPC 接口控制 Windows 11 画图程序,实现自动化绘图和图像编辑功能。
基于Model Context Protocol构建的MCP服务器,为Medusa电商平台提供数据访问和功能扩展,支持AI智能体集成。
基于 RESTful API 的 MCP 服务器传输层实现,支持通过 HTTP 协议接收和发送 MCP 消息。
基于Model Context Protocol的天气查询服务,通过JSON-RPC协议提供城市、坐标天气查询及天气预报功能,可集成到Cursor等MCP客户端。
基于 MCP 协议的 TypeScript 服务器模板,提供工具注册和标准输入输出通信能力,可快速搭建 MCP 应用后端。
Caramba MCP Server是一个基于Go语言的MCP服务器实现,旨在为LLM客户端提供资源、工具和Prompt模板等上下文服务。
Cyberon 是一个基于 Flask 的 Web 应用程序,同时也是一个 Model Context Protocol (MCP) 服务器,用于探索和可视化知识本体,并为 LLM 客户端提供上下文服务。
一个基于 Model Context Protocol (MCP) 的简单服务器实现,提供基础的 Prompt 模板和 Tool 工具,用于 LLM 应用的上下文服务。
mcp-kotlin-sdk仓库是基于Kotlin实现的Model Context Protocol (MCP) SDK,它不仅提供了构建MCP客户端的能力,也包含了创建MCP服务器的功能,旨在帮助开发者便捷地构建和部署MCP应用。
Prompt Decorators 提供了一个标准化的框架,用于增强和管理大型语言模型 (LLM) 的 Prompt,包含 MCP 服务器实现,可与 Claude Desktop 等 MCP 客户端集成。
Offeryn是一个Rust实现的Model Context Protocol (MCP) 服务器,专注于通过工具扩展大型语言模型的能力,支持JSON-RPC over Stdio和SSE传输协议。
kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。
mcpmock是一个CLI工具,用于模拟MCP服务器,通过YAML文件预设场景响应JSON-RPC请求,方便MCP客户端测试和开发。
CrewAI MCP Server是一个基于Python实现的MCP服务器,它利用Claude API提供AI智能体和任务管理能力,支持通过JSON-RPC协议进行工具调用和会话交互。
MCPMC是一个MCP服务器,使AI代理能够控制Minecraft机器人,通过JSON-RPC提供对Minecraft世界信息和操作的标准化访问。
MCP Server Starter是一个基于TypeScript的模板,用于快速构建MCP服务器,方便AI智能体与各种工具和数据源集成。