返回首页

"模型上下文协议" 标签

268 个结果

标签搜索结果

AI与计算

succ MCP 服务器实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源、工具、提示模板等的标准化后端服务,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输方式。

AI与计算

Retell MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心功能,并通过 JSON-RPC 与客户端通信。支持 STDIO 与 HTTP 传输,包含会话管理、能力声明及安全配置,面向给定 LLM 客户端提供标准化的上下文与工具服务。

AI与计算

Healthcare ChatBot MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,使用 FastMCP 将 ChatBot 的查询、会话历史和配置信息以工具的形式对 MCP 客户端暴露,并支持通过 MCP 客户端进行跨进程/跨平台的上下文交互。

AI与计算

AI Agent MCP 服务端实现

基于 Model Context Protocol (MCP) 的服务端实现,提供资源、工具和 API 形式的 MCP 请求处理能力,并将本地技能、外部源及 Bitwarden 等工具通过 JSON-RPC 暴露给 LLM 客户端,支持多传输协议与会话管理,适用于将 AI 辅助能力以标准化上下文服务提供给大语言模型。

AI与计算

Claude Code Tool Manager MCP Gateway

基于模型上下文协议(MCP)的服务器实现,提供网关端的懒加载工具与后端MCP连接管理,能够通过标准化的JSON-RPC风格交互向LLM客户端暴露可用的MCP、工具和提示模板,并支持多传输协议(如 stdio、HTTP/SSE 等)。

AI与计算

CPE 多服务器 MCP 实现

基于模型上下文协议(MCP)的后端实现,提供对资源、工具的注册与执行,以及走向统一的 Prompt 渲染,支持标准的 JSON-RPC 交互和多传输协议(如 STDIO、HTTP、SSE)以对接 LLM 客户端。

网页与API

afpnews-mcp-server

基于 Model Context Protocol 的 AFP 新闻内容 MCP 服务器实现,提供资源、工具和提示模板的注册与渲染,并通过 JSON-RPC 与客户端通信,支持 STDIO 与 HTTP 传输。

AI与计算

SkillBoss MCP 服务器(Model Context Protocol 实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、模型/能力管理,以及通过 JSON-RPC 形式对外服务。服务器通过标准传输(如 StdIO)与 MCP 客户端通信,支持多模型调用、任务编排与可扩展的上下文能力,为 LLM 客户端提供统一的上下文与外部功能入口。

AI与计算

NietzscheDB MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等功能,通过 JSON-RPC 与 LLM 客户端交互,支持多传输协议以便在不同环境中提供上下文与外部能力访问。

AI与计算

Tukuy MCP 服务器

基于 Model Context Protocol 的 MCP 后端实现,提供资源与工具的托管管理、工具注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)以为 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

Dorothy MCP 服务器集成

基于 Model Context Protocol (MCP) 的多服务端 MCP 实现集合,提供资源管理、工具执行、自动化和 Kanban/Vault 等功能,以便向 LLM 客户端提供统一的上下文服务和能力调用接口。

AI与计算

RecallNest MCP 服务器

基于模型上下文协议(MCP)的本地内存检索与管理后端,提供“搜索/解释/蒸馏/记忆 Pin/导出”等工具,面向与 LLM 客户端的上下文服务与功能扩展。通过 JSON-RPC 风格的 MCP 接口对外暴露服务,支持记忆资源、工具执行、以及提示模板的渲染等能力。

网页与API

Daiso MCP Server - 基于模型上下文协议的多服务后端

在 Cloudflare Workers 上实现的 MCP 服务器,采用插件化架构聚合多家服务(Daiso、CU、Olive Young、Megabox、CGV),通过 JSON-RPC 与 LLM 客户端进行通信,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,并对 MCP 客户端提供多种传输与会话管理支持,以及可扩展的 REST 代理与文档端点。

AI与计算

SBIR Grants MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册与执行、以及提示模板的统一渲染,通过 JSON-RPC 与 LLM 客户端进行高效的上下文服务交互,支援知识库检索、文档生成、ROI 计算等功能。

AI与计算

AgentPool MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与访问、工具注册与执行、以及提示模板的定义与渲染,通过 JSON-RPC 与客户端通信,支持多传输协议并具备会话管理和能力声明能力,用于为 LLM 客户端提供统一的上下文与功能服务。

AI与计算

EstateWise MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,为 MCP 客户端提供资源管理、工具注册与执行、以及 Prompt 渲染等功能;通过 JSON-RPC 与客户端通信,支持多种传输模式,面向大型语言模型(LLM)的上下文服务与任务协同。

AI与计算

Claude Team MCP 服务端

基于 Model Context Protocol (MCP) 的多智能体协作后端服务器,提供资源、工具、Prompts 的托管与管理,并通过 JSON-RPC 与客户端通信,支持跨进程/进程间传输(如 Stdio、WebSocket 等)。

AI与计算

helix.mcp — Helix 与 AzDO 的 MCP 服务器实现

基于 Model Context Protocol 构建的 MCP 服务器,提供 Helix/Azure DevOps API 的资源、工具和提示模板给大型语言模型代理,支持跨进程缓存、HTTP/StdIO 传输等上下文服务能力。

网页与API

MCP Agent Mail

基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,向大语言模型客户端以标准化JSON-RPC方式提供资源、工具和Prompt模板等上下文能力,并通过HTTP传输在人机/代理之间进行可审计的协作与对话管理。

AI与计算

OpenPencil MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管/访问、工具注册/执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC/SSE/HTTP 等传输机制与 LLM 客户端进行上下文服务与协作。

AI与计算

ANT MCP 服务器实现(a-nice-terminal)

基于 Model Context Protocol 的 MCP 服务器实现,提供对 ANT 会话、资源与工具的标准化访问,通过 JSON-RPC/StdIO-Socket 等方式与 MCP 客户端通信,支持工具注册、读取会话、发送消息、终端输入输出等核心功能,便于 AI 代理对 ANT 的上下文与能力进行调用与协作。

网页与API

BeigeBox MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,暴露 BeigeBox 的工具注册表为 MCP 服务,支持 initialize、tools/list、tools/call 等方法,按 JSON-RPC 2.0 规范与 MCP 客户端通信,方便 Claude Desktop 等客户端直接调用 BeigeBox 的工具能力。

AI与计算

duh MCP 服务器实现

基于 Model Context Protocol 的后端服务,作为 MCP 客户端的上下文信息与功能提供端,托管资源、注册并执行工具、定义并渲染 Prompt 模板,并通过 JSON-RPC 与前端或 LLM 客户端进行通信,支持多种传输协议以实现安全、可扩展的上下文服务。

AI与计算

Spacebot MCP 服务器端

Spacebot 的 MCP(Model Context Protocol)服务器实现,提供对外部资源、工具与提示模板的标准化上下文服务,支持多传输通道、自动工具发现、热Reload,以及通过 API 暴露的管理能力,面向对接 LLM 客户端的 JSON-RPC 通信。

AI与计算

MemberJunction MCPServer

基于 Model Context Protocol (MCP) 的后端服务器实现,用以向 MCP 客户端提供资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的扩展能力(如 StdIO、SSE、WebSocket)。

AI与计算

IBM Cloud Logs MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,面向 LLM 客户端以标准化 JSON-RPC 方式获取上下文信息与外部功能。

AI与计算

Agoragentic MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器实现,用于向 MCP 客户端(如 Claude Desktop、VS Code、Cursor 等)暴露 Agoragentic 市场的资源、工具与提示模板,并通过 JSON-RPC 进行请求/响应与通知。该服务器具备注册、执行、查询能力等核心 MCP 功能,可为 LLM 应用提供统一的上下文与外部能力接入。

开发者工具

Kubani MCP 服务器端

基于 Model Context Protocol(MCP)的 Kubani 服务器端实现,提供资源与工具的暴露、MCP 的工具调用,以及对外提供的服务器能力声明,支持通过标准的 JSON-RPC 进行客户端请求与响应,适配多种传输方式(如 Stdio、SSE 等)以向 LLM 客户端提供上下文与功能服务。

AI与计算

AppKit MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,聚焦资源管理、工具注册与执行,以及提示模板渲染,为大型语言模型客户端提供标准化的上下文和功能服务,支持多服务器并发、会话管理与多传输协议(如 SSE/HTTP 流、STDIO 等)通信。

AI与计算

Gleann MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,并通过 JSON-RPC 与客户端通信,内置以 stdin/stdout 形式的传输支持,便于在本地编辑器与 LLM 客户端中集成使用。

AI与计算

kemdicode-mcp

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,提供资源/工具/提示模板的管理与渲染,支持 Redis 持久化、JSON-RPC 通信以及多传输方式(如 StdIO、HTTP/WS),为 LLM 客户端提供结构化上下文服务与分布式协作能力。

AI与计算

spanner-mycli MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信;实现会话管理、能力声明,并支持多种传输方式,作为面向大语言模型的上下文服务框架。

AI与计算

Idea Reality MCP 服务端

基于模型上下文协议(MCP)的后端实现,提供资源与工具管理、提示模板渲染以及与客户端的 JSON-RPC/SSE/WebSocket 通信,用于向大语言模型(LLM)客户端提供上下文信息和外部功能入口。

AI与计算

lm-deluge MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板的托管与渲染,并通过 JSON-RPC 与客户端进行标准化通信;包含从本地或远程 MCP 服务器加载工具的能力,以及将 MCP 请求转换为 LM-Deluge 内部请求、再将响应转换回 MCP 格式的适配器组件,支持多种传输模式,旨在为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

attention-matters MCP 服务器实现

基于模型上下文协议(MCP)的后端服务实现,提供资源、工具、提示模板等能力,使用 JSON-RPC 与客户端通信,包含会话管理、能力声明,以及多传输协议支持的 MCP 服务器实现与服务端逻辑。代码通过 am-cli 提供的服务器入口与工具集成,达到在 LLM 客户端中以标准方式提供上下文信息与外部功能调用的目标。

AI与计算

Ripperdoc MCP 服务器端实现

基于模型上下文协议(MCP)的后端服务实现,标准化向LLM客户端暴露资源、工具与Prompt模板,支持JSON-RPC通信、会话管理与能力声明,并可通过多传输协议(如 Stdio、SSE、WebSocket)提供上下文服务与扩展能力。

开发者工具

XC-MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端通过 JSON-RPC 提供统一的上下文信息与功能。该服务器聚合 Xcode 构建、模拟器、资源缓存、持久化等资源与工具、提示模板的访问、执行与渲染,支持会话管理与能力声明,默认通过 STDIO 传输进行通信,便于在对话式 AI 应用中嵌入与扩展。

AI与计算

Docketeer MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,暴露 Docketeer 的工具注册表给 MCP 客户端,以便读取工具信息、执行工具并记录审计日志,支持通过 JSON-RPC 与客户端进行交互。

AI与计算

Marionette MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示的托管与管理,通过 JSON-RPC 与 LLM 客户端通信;整合 Claude Code、WebSocket 通信、实时会话监控与 API 代理等组件,实现可扩展的上下文服务框架。

网页与API

Bluesky MCP 服务端

基于 Model Context Protocol(MCP)的服务器端实现,提供资源管理、工具注册与执行、Prompt 渲染等上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输模式。

AI与计算

Pierre MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板的标准化管理与 JSON-RPC 通信,支持多传输协议、会话管理与权限控制,为大型语言模型提供可扩展的上下文服务。

AI与计算

Agentic Titan MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 JSON-RPC(以 MCP 为核心)与客户端通信,支持通过 STDIO 传输的 MCP 后端服务。

AI与计算

Goke MCP 服务器适配器

基于 Model Context Protocol(MCP)的后端实现,提供将 Goke CLI 命令暴露为 MCP 工具并通过服务器端接收、注册、执行与管理的能力。支持通过标准输入/输出(stdio)等传输层与 MCP 客户端通信,包含工具注册、工具调用、输入输出 JSON 架构的推送、以及基于 OAuth 的授权流程与本地回调服务器等关键功能。

AI与计算

MegaMem - Obsidian 知识图谱 MCP 服务器实现

MegaMem 整合 Obsidian 插件与时序知识图谱,提供基于 Model Context Protocol(模型上下文协议)的 MCP 服务器端实现,支持资源管理、工具注册与执行、以及 Prompt 模板渲染,便于将 vault 内容以标准化上下文服务暴露给 LLM 客户端。

AI与计算

ChatShell MCP 服务器示例

一个基于 RMCP 的 MCP 服务器实现示例,展示如何在 ChatShell 项目中托管资源、注册工具、定义并渲染提示模板,并通过 JSON-RPC/HTTP 传输与 LLM 客户端进行交互。

开发者工具

Lobster MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,使用 JSON-RPC 与 LLM 客户端通信,支持多传输协议以实现安全、可扩展的上下文服务。

AI与计算

Commandable MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供资源管理、工具注册与执行、以及可定制的 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信并可通过 STDIO、HTTP、SSE、WebSocket 等传输协议接入客户端。

AI与计算

MemoryMesh 上下文服务端实现

基于 Model Context Protocol(MCP)的后端服务器,实现资源、工具与 prompts 的管理与执行,提供标准化的 JSON-RPC 风格请求/响应,并通过 stdio 传输与 MCP 客户端对接,同时集成 DynamoDB 存储以管理上下文数据。

开发者工具

AI MCP 服务器示例(FastMCP 实现)

基于 FastMCP 的 MCP 服务器实现示例,展示如何通过装饰器暴露工具函数、在 STDIO/HTTP 传输下提供标准化的 MCP 服务,并为 MCP 客户端提供资源、工具、提示等上下文能力的运行示例。

AI与计算

Hydra 基于模型上下文协议的 MCP 服务器实现

一个将 Model Context Protocol (MCP) 服务器能力嵌入 Hydra 守护进程的实现,用于向本地 LLM 客户端提供资源管理、工具执行和提示模板渲染等能力,并通过 HTTP/SSE 传输进行 JSON-RPC 交互。

AI与计算

Dynamic MCP 服务器

基于 Model Context Protocol(MCP)的生产就绪后端实现,提供运行时工具注册、执行沙箱、资源与提示管理,并通过 JSON-RPC 与 LLM 客户端进行上下文服务与功能调用。

开发者工具

pūrmemo MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、及 Prompt 模板渲染,通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明与多传输协议(如 STDIO、SSE、WebSocket)的上下文服务框架。

开发者工具

Solaya MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,允许通过 JSON-RPC 形式的 MCP 客户端与 Solaya 内核及其 QEMU 实例交互,提供资源、工具与提示模板的托管/管理,以及对外部命令的执行能力。当前实现包含一个针对 QEMU 的控制型 MCP 服务器,能够启动/管理 QEMU 实例、执行内核构建与系统测试等任务,适合作为 LLM 客户端的上下文服务入口。

AI与计算

agent-coworker MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、远程工具注册与执行,以及可自定义的 Prompt 模板渲染,支持多种传输协议(如 WebSocket、HTTP/SSE、stdio)并实现会话管理、能力声明和认证等服务端功能,面向与 LLM 客户端的标准化上下文与能力对接场景。

网页与API

simple_mcp_server

基于 Model Context Protocol 的简单 MCP 服务器,提供对 Star Wars API 的资源与工具的暴露与管理,便于通过标准化的 MCP 客户端进行上下文服务调用。

AI与计算

Super Turtle MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端提供工具、资源和 Prompt 渲染等上下文能力。仓库实现了两个 MCP 服务器(send-turtle 与 bot-control),通过 JSON-RPC 草案标准与客户端通信,并使用文件系统 IPC 机制协调后台任务与 Claude Telegram Bot 的交互。

AI与计算

AI-Investment-Advisor MCP Server

基于 Model Context Protocol(MCP)的后端服务器,向 LLM 客户端提供资源、工具与 Prompt 模板等统一上下文服务,并通过 JSON-RPC 与客户端进行请求/响应交互,附带会话管理与能力声明,支持多传输协议以实现安全、可扩展的上下文服务框架。

AI与计算

Fragments MCP 服务器实现(WebMCP 框架集成)

基于模型上下文协议(MCP)的后端服务器实现,利用 WebMCP 框架暴露资源、工具和提示模板,支持 JSON-RPC 调用和多传输通道,以便向 LLM 客户端提供可扩展的上下文服务。

AI与计算

Borg MCP 服务器实现集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供资源管理、工具注册/执行以及提示/模板渲染等能力,供 LLM 客户端通过 JSON-RPC 与多种 MCP 服务器进行交互。仓库内包含多个独立的 MCP 服务端实现(如 lexis-mcp、lawborg-mcp、borg-mcp 等),通过 StdioTransport 提供标准化的服务入口,支持工具列表、工具调用以及跨提供方的集成能力。

网页与API

peon-ping MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的管理、JSON-RPC 通信与多场景部署能力,能够让 LLM 客户端通过标准接口调用音效资源、获取 Pack 信息并执行音频播放等功能。

AI与计算

TuitBot MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端以标准化的 JSON-RPC 形式提供资源管理、工具执行以及提示模板等能力,支持多运行配置(Profile),并通过 stdio 传输与客户端进行交互。该实现包含服务端核心逻辑、工具清单、工厂化的适配器以及对各运行档案的支持,属于完整的服务器端实现而非仅仅示例。

AI与计算

nano-claw

基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端提供资源、工具和提示模板,并通过 JSON-RPC 等协议实现标准化的上下文服务与交互。

AI与计算

AI-ATLAS MCP 服务端

基于 AI-ATLAS 的后端服务器实现,通过生成的 MCP 工具和 OpenAPI 规范,向大语言模型客户端提供资源、工具和提示模板等上下文服务,支持基于 SSE 的传输与 JSON-RPC 风格的协作能力。

AI与计算

SageFs MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,使用 JSON-RPC 进行通信,支持多会话和热重载能力,并通过 SSE/HTTP 等传输方式向 LLM 客户端暴露上下文服务。

AI与计算

Azure Scout MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务,用于向 AI 客户端提供 Azure 区域、区域映射、SKU 可用性等资源数据、注册并执行工具,以及渲染/提供提示模板,支持通过 JSON-RPC/多传输协议与客户端通讯的 MCP 服务器实现。

AI与计算

Astro MCP 服务器实现

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器实现,提供资源与工具管理、提示模板渲染,以及与 Claude Code/其他客户端的 JSON-RPC 通信,支持会话管理、跨传输协议的上下文服务。

开发者工具

OpenCode MCP Server

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器,将 OpenCode 作为工具/子代理,通过 MCP 提供资源访问、工具调用和提示模板渲染等上下文服务,支持 stdio 和 HTTP 传输。

AI与计算

Azeth MCP 服务器

基于 Model Context Protocol 的后端服务,提供资源、工具与 Prompt 渲染等核心 MCP 能力,并通过 JSON-RPC 与 LLM 客户端进行交互,实现对工具集的托管、执行及对话上下文的管理。

AI与计算

DeepSeek MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的统一上下文服务,支持多模型回退、会话管理、功能调用、JSON 输出、以及多传输协议(stdio 与 HTTP)等特性。

网页与API

tvscreener MCP 服务端

基于模型上下文协议(MCP),为大模型/LLM 客户端提供字段发现、资源筛选以及外部工具执行等能力的后端服务。通过 JSON-RPC 与客户端通信,支持资源管理、工具注册与执行、以及可定制的 Prompt 渲染等功能,便于在对话系统中提供证券市场数据上下文与交互能力。

AI与计算

ManagedCode.MCPGateway 服务器端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源和工具的托管与管理、支持向量化嵌入检索、以及可扩展的上下文渲染与工具执行能力,用于向大型语言模型(LLM)客户端按标准化格式提供上下文信息和功能接口。

AI与计算

Atlas Work MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,围绕 Atlas 的工作管理工具提供工具执行、会话与上下文管理,支持以标准化的 JSON-RPC 形式与客户端交互,使用标准输入输出传输(stdio)来对接 Claude 相关工作流。

AI与计算

Walrus-MCP 服务器桥接

Walrus Daemon 的 MCP 服务器实现:通过 MCP 桥接连接一个或多个 MCP 服务器,注册工具、转发工具调用并将 MCP 能力整合到 Walrus 的运行时中,提供对外部工具的统一访问,支持与 LLM 客户端以标准化方式进行工具调用与资源访问。

网页与API

Grok FAF MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源与工具的托管与访问、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC/HTTP-SSE 与客户端通信,包含会话管理、能力声明,以及支持多传输协议的上下文服务框架。

网页与API

Software Factory MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供标准化的上下文服务:托管资源、注册与执行工具、定义与渲染 prompts,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 SSE、WebSocket、StdIO)以实现安全、可扩展的上下文服务框架。仓库中已有大量 MCP 相关模块和对接实现,能够与客户端协同提供资源、工具与提示等能力。对接示例包括通过 llm_client 与 MCP 平台服务器进行交互以及对 MCP 服务的自检与自动重启等能力。

AI与计算

kap MCP 服务器实现

基于模型上下文协议(MCP)的后端服务实现,提供对 MCP 客户端的资源访问、工具注册与执行、以及与上游 MCP 服务器的JSON-RPC交互能力。实现自包含的服务器端逻辑、工具访问控制、会话管理和凭证处理,并通过侧车代理在容器环境中实现安全的流量控制与跨服务器协作。

AI与计算

llmkit MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,用于在 LLM 客户端与代理/资源之间提供可扩展的上下文服务。该服务器实现了工具注册与执行、成本/预算相关查询、会话摘要等 MCP 功能,支持通过 JSON-RPC 与客户端通信,并能够暴露“健康/状态”等查询能力,便于 Claude Code/Cursor 等工具进行上下文协作。

AI与计算

floop MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,用于向 LLM 客户端以标准化方式提供资源、工具、提示等上下文和功能,通过 JSON-RPC 在标准输入输出(stdio)内通信,支持会话管理与多种传输场景,作为后端后端服务为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

Haira MCP Server

Haira 的 MCP 服务器实现,基于 Model Context Protocol(MCP)提供资源与工具的管理、以及将工作流暴露为外部工具的能力,服务器通过 JSON-RPC 与客户端通信,支持多种传输方式(如标准输入输出stdio 和 SSE),并与 Haira 内部运行时紧密集成以实现对上下文、工具执行和提示模板的标准化服务。

AI与计算

JD.AI MCP 服务器实现

基于模型上下文协议(MCP)的后端服务,专注托管与管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板,随后通过 JSON-RPC 与 LLM 客户端进行标准化的上下文交互。服务端负责会话管理、能力声明,并可通过多种传输通道(REST/SignalR、Stdio、Server-Sent Events、WebSocket)实现跨平台的上下文服务能力,适配 JD.AI 生态内的网关、通道与工具体系。

AI与计算

Planning Game XP MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具与提示模板的标准化管理与访问,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明,以及与 Firebase 数据库的交互。该仓库包含可运行的 MCP 服务端代码及相关工具与测试,适用于将 LLM 客户端接入 Planning Game XP 的上下文与功能服务。

AI与计算

Poiesis MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具与提示的统一注册、管理与访问,通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多模块扩展和 Bearer Token 认证。

AI与计算

Kvlar

基于 Model Context Protocol (MCP) 的开源后端实现,提供对资源、工具、提示模板等的托管与管理,通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(如 stdio、TCP)、策略评估、审计日志和热加载等特性,旨在为大语言模型(LLM)场景中的上下文服务提供安全、可扩展的后端支持。

网页与API

Argus MCP Gateway

基于 Argus 网关实现的 MCP 服务器,提供稳定的 JSON-RPC 交互,向 MLP/LLM 客户端暴露资源、工具、提示模板等能力,并通过会话级授权实现隔离化访问,同时集成 Telegram 机器人入口与后台任务调度/心跳机制,实现资源管理、工具调用与 prompts 的统一管理和渲染。

AI与计算

OMEGA Memory MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理与访问、工具注册与执行、以及 Prompt 模板的渲染与上下文服务,支持 JSON-RPC 通信、会话与能力声明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)对接到不同的 LLM 客户端。

AI与计算

UNITARES Model Context Protocol 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供对资源的托管与访问、工具的注册/执行,以及 Prompt 模板的定义与渲染。服务器通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明,并可通过多种传输协议(如标准输出/终端、Server-Sent Events、WebSocket)进行上下文服务与功能调用,为 LLM 应用提供安全、可扩展的上下文服务框架。

网页与API

OSS Autopilot MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式暴露资源、注册工具并提供提示模板,支持 stdio 与 HTTP 流式传输,便于在本地搭建可扩展的上下文服务。

开发者工具

EODHD MCP Server

基于模型上下文协议(MCP)的后端服务,将 EOD Historical Data 的金融数据 API 统一暴露给 MCP 客户端,提供资源管理、工具调用与可渲染提示模板等能力,支持 HTTP/SSE/STDIO 等传输模式,实现与 Claude/ChatGPT 等大语言模型的安全可扩展上下文服务。

开发者工具

mcp-reticle

基于 Model Context Protocol 的可运行 MCP 服务器实现与调试套件,包含模拟 MCP 服务器、代理/监控组件,以及用于前端可视化的日志和上下文分析工具,帮助开发者进行资源、工具、Prompts 的上下文管理与测试。

AI与计算

Cortex MCP 服务器

基于 Cortex 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端提供标准化的上下文、资源与工具访问,并支持多传输协议(标准输出/HTTP+SSE),实现资源、工具、提示模板等 MCP 核心能力。

AI与计算

DuckDB MCP Extension

基于模型上下文协议(MCP)的 DuckDB 后端实现与扩展,提供资源、工具、提示模板的托管、注册与查询能力,并通过多种传输协议(stdio、HTTP、WebMCP、内存等)与 LLM 客户端进行 JSON-RPC 交互,涵盖服务器端会话、权限控制与安全模型的完整实现。

AI与计算

NanoClawbster MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具以及提示模板等上下文信息,通过 JSON-RPC 与客户端通信,支持多传输通道(当前实现以 stdio 介质为主,后续可扩展为 SSE/WebSocket),并与 Composio 集成以暴露元工具,,用以构建可扩展的对话式 AI 后端服务。

网页与API

corvid-agent MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 HTTP/WebSocket/OpenAPI 等协议对外暴露接口,支持与其他 MCP 客户端/服务器的对接与多模型协作。

开发者工具

GitLab CLI MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,集成资源、工具、提示模板等能力,提供标准化的上下文服务以供 LLM 客户端调用,并通过 Stdio 传输支持快速本地测试与集成。

桌面与硬件

Xpdite MCP 服务器实现

基于 Model Context Protocol 的本地化后端集合,提供资源、工具和提示模板的 JSON-RPC 服务,用于向本地大模型客户端提供上下文信息与外部功能,并通过 MCP 框架实现工具注册、调用与应答路由。该仓库实现了多种 MCP 服务器(如文件系统、网页检索、终端工具、Gmail/日历等)以及与 Ollama、OpenAI 等客户端的集成,支持自定义工具、提示模板与会话管理等能力。

开发者工具

Claude Octopus MCP Server

基于 Model Context Protocol (MCP) 的 Claude Octopus 后端服务器,暴露 Octopus 的工作流为 MCP 工具,并通过标准 MCP JSON-RPC 与客户端通信,内部将请求委托给 orchestrate.sh 实现多模型协作执行,同时提供 OpenClaw 兼容支持与 IDE 集成功能。

AI与计算

Osoba MCP 服务端

基于模型上下文协议(MCP)的多工具后端,提供资源、工具、提示模板等 MCP 服务模块,用于向本地/托管的大语言模型客户端暴露数据访问、外部功能调用和上下文渲染能力。

商业系统

freee-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供资源数据访问、工具调用以及 Prompt 模板渲染等上下文服务,结合 Claude 生态实现对 freee API 的集成,支持 OAuth2 PKCE、多事业所场景以及本地传输方式(如 STDIO)等特性。

AI与计算

pai MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务端实现,提供对资源、工具和提示模板的标准化管理与访问,支持与大语言模型客户端通过 JSON-RPC 进行交互,并定义不同传输方式(如 StdIo、SSE 等)以供 LLM 应用接入。仓库中包含完整的 MCP 服务入口、19 个工具实现及集成示例,具备可运行的服务器端代码。<br>核心功能包括:托管资源与知识、注册并执行工具、渲染 Prompt 模板、以及会话与能力声明管理等。

AI与计算

Rystem 模型上下文协议服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具和提示模板的托管与注册,并通过 JSON-RPC 与 LLM 客户端通信,支持本地开发与扩展传输。

AI与计算

DevServer MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,作为后端服务提供资源管理、工具注册与执行、以及提示模板等功能,能够通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明,以及多种传输方式,便于为大型语言模型(LLM)提供统一的上下文与功能服务。

AI与计算

Maiat MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、Prompt 模板等上下文信息的注册、管理与对外服务,通过 JSON-RPC 与 MCP 客户端通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,面向 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

VibesRails MCP 服务器

基于模型上下文协议(MCP)的后端实现,作为 MCP 服务器向 LLM 客户端提供上下文信息、资源与工具,并支持提示模板的渲染与执行。通过 JSON-RPC 与客户端通信,提供资源读取、工具调用、Prompt 获取等能力,支持会话管理、能力声明以及多传输协议(如 stdio)的扩展性上下文服务框架。

AI与计算

Xenobot MCP 服务器

基于 Model Context Protocol 的后端实现,提供资源托管与访问、工具注册与执行,以及面向 LLM 的 JSON-RPC 通信,并通过 WebSocket、SSE 与 HTTP 传输协议与客户端交互。

AI与计算

UNCASE MCP 服务器

基于 Model Context Protocol 的 UNCASE 后端实现,使用 FastMCP 将 seeds、tools、prompts 等上下文资源以 JSON-RPC 风格暴露给 LLM 客户端,并支持工具执行、模板渲染等功能的 MCP 服务器实现。

AI与计算

SideButton MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向大语言模型(LLM)客户端提供资源、工具注册与执行、以及可自定义的 Prompt 模板等上下文能力,并通过 JSON-RPC/ SSE/ stdio 等传输协议进行交互,适用于在浏览器、终端或应用中集成上下文服务。

AI与计算

RagOps MCP 服务集合

基于模型上下文协议(MCP)的后端服务器集合,提供托管资源、注册并执行工具、定义与渲染提示模板等能力,并通过 JSON-RPC 与客户端通信。该仓库实现了多台内置 MCP 服务器以及一个统一的 MCP 服务端,支持本地(stdio)、WebSocket/SSE 等传输协议的扩展上下文服务框架,适用于将大模型客户端接入到后端资源、工具与提示模板的强大上下文服务。

AI与计算

DotnetFastMCP MCP 服务器框架

基于 Model Context Protocol 的企业级 MCP 服务器框架,提供资源与工具托管、提示模板、JSON-RPC 通信、OpenTelemetry 观测、企业级认证等能力,支持多传输模式(Stdio、SSE、WebSocket)与服务器组件聚合与扩展,能够为 LLM 客户端提供上下文数据、工具调用和提示渲染等服务。

AI与计算

Loom MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持本地或混合模型的上下文服务和执行能力。该仓库包含可运行的服务器端实现及相关集成组件,不仅是客户端示例或测试代码。

AI与计算

Phylactery MCP Gateway

基于模型上下文协议(MCP)的多服务器聚合网关实现,将多个 MCP 服务器的工具能力整合在一个统一的 MCP 服务端,通过 JSON-RPC 与客户端通信,提供合并后的工具集合、工具调用分发以及初始化/通知等能力。

AI与计算

Brain Dump MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板等统一注册、执行与渲染能力,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议扩展,作为 LLM 客户端的上下文服务与功能入口。

AI与计算

BrowserForce MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具与提示模板的统一访问与管理,并通过本地 Relay 与在浏览器中的扩展组件协同工作,供 MCP 客户端(如 OpenClaw、Claude、Codex、Cursor 等)调用,实现对浏览器上下文的标准化上下文服务。该实现包含一个实际可运行的 MCP 服务器、插件加载机制、工具定义(execute、reset)以及与扩展/浏览器的交互逻辑。

AI与计算

kimsweb-front 飞书文档 MCP 服务端

基于模型上下文协议(MCP)的服务器实现,提供飞书文档知识库的 MCP 服务端能力,包含工具注册、SSE/StdIO/HTTP 等传输方式、会话与能力管理,以及对外暴露的文档检索工具,供 LLM 客户端按照统一协议进行上下文访问与功能调用。

网页与API

SupaCloud MCP Server

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具注册/执行、Prompt 模板渲染等功能,通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)以及会话管理与能力声明,用于为大模型/代理提供可扩展的上下文与外部操作能力。

AI与计算

Jaz AI MCP 服务端

基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源、工具与提示模板等上下文服务,并通过标准的 JSON-RPC 串行化与客户端交互,支持 STDIO 传输。

AI与计算

Xcode Copilot MCP 服务端实现

一个基于模型上下文协议(MCP)的本地后端服务器实现,作为大语言模型客户端的上下文信息与功能提供方。它提供资源管理、工具注册与执行、以及提示模板的渲染与转换,采用 JSON-RPC 2.0 与客户端通信,并通过 SSE 等流式传输为 LLM 应用提供安全、可扩展的上下文服务。

AI与计算

Stacker MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具及提示模板的托管与管理,并通过 JSON-RPC/WebSocket 形式与 LLM 客户端进行通信,实现会话管理、能力声明与多传输协议的上下文服务。

AI与计算

Aurelm MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,供 LLM 客户端通过 JSON-RPC 调用获取上下文信息与功能。

AI与计算

Praktor MCP 服务集合

基于模型上下文协议(MCP)的后端服务集合,为各代理提供资源、工具注册与提示模板的标准化交互能力,通过 stdio/HTTP 等传输方式与客户端以 JSON-RPC 风格通信,并在网关层通过 NATS 实现任务与事件的分发和协调。

开发者工具

OSGi.fx MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供通过 JSON-RPC 进行的资源与数据访问、工具注册与执行,以及提示模板渲染等能力,支持通知广播(如 SSE)与多传输通道,面向大语言模型(LLM)客户端提供标准化的上下文服务。

AI与计算

AgentOS MCP Server Bridge

基于模型上下文协议(MCP)的后端服务器实现,能够将外部 MCP 服务器的工具暴露为技能并通过 JSON-RPC/WebSocket 等协议与客户端交互,支持注册、执行工具、资源管理与提示模板等能力的集中化管理与路由。

AI与计算

Debate Hall MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板,供大模型客户端以标准化的 JSON-RPC 方式获取上下文数据、调用外部功能与获取对话模板。服务器实现了会话管理、能力声明,并支持多种传输协议(如 Stdio、SSE、WebSocket),为结构化辩论场景中的 Wind/Wall/Door 模型提供安全、可扩展的上下文服务框架。

AI与计算

PocketPaw MCP 服务端实现

基于模型上下文协议(MCP)的后端服务,提供资源托管、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端进行标准化交互;支持多传输协议、会话管理与能力声明,适配多种 LLM 客户端场景。

网页与API

git-steer MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理与渲染,并通过 JSON-RPC 与 LLM 客户端交互,支持在云端对 GitHub 资源与自动化工作流进行上下文服务。

网页与API

NagaAgent MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,负责注册与发现 MCP 工具、并行调度执行、资源与记忆/知识图谱相关能力,并通过 JSON-RPC/HTTP 形式对外提供统一的 MCP 服务入口,支持多种传输模式与会话管理。

AI与计算

Voice Mirror MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具和提示模板的托管、注册与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理与多种传输协议。

开发者工具

Census MCP 服务端(Open Census MCP Server)

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供资源(Resources)、工具(Tools)和提示模板(Prompts)的标准化上下文服务。通过 JSON-RPC 与客户端通信,服务器负责会话管理、能力声明,以及对资源、工具和提示进行托管、注册与渲染,支持多传输协议的接入以实现灵活的后端上下文服务框架。

网页与API

Docebo MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务,将 Docebo Learning Platform API 通过 MCP 提供给 Claude、Cursor 等 MCP 客户端,支持资源、工具、提示模板的统一管理与执行,并通过 JSON-RPC 与客户端通信,具备会话管理、认证代理和可扩展传输协议支持。

AI与计算

Vellaveto MCP 服务器端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源与工具的托管与管理、提示模板渲染、以及标准化的 JSON-RPC 通信,支持多传输通道(HTTP/SSE、Stdio、WebSocket 等),并具备审计、策略引擎、合规映射等能力,为对话式 AI 客户端提供安全、可扩展的上下文服务框架。

AI与计算

OpenPaean MCP Server

基于 Model Context Protocol 的本地 MCP 服务器实现,提供资源读取、工具调用和工具/资源清单等核心 MCP 功能,用于本地 MCP 客户端对接的上下文服务和工具执行能力。

网页与API

AgentChains MCP 服务器

基于模型上下文协议(MCP)的服务器端实现,向 MCP 客户端提供资源、工具与提示模板等上下文能力,并通过 JSON-RPC 2.0 在 SSE/POST/WebSocket 等传输通道进行通信与协作。

AI与计算

Pipelock MCP 代理服务器

基于模型上下文协议(MCP)的双向扫描代理,封装并保护 MCP 服务端与客户端之间的 JSON-RPC 2.0 通信,能够对请求与响应中的文本内容进行 DLP、注入检测,并在需要时对内容进行拦截、剥离或提示人工干预,同时支持热配置和多种传输方式。

AI与计算

fr8 MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,为 AI 客户端提供对 FR8 工作区管理的资源、工具与提示模板等上下文信息的标准化访问,客户端通过 JSON-RPC 与之通信,支持多种集成场景(如标准输入输出的 StdIO 传输)。

网页与API

Rampart MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现与代理框架,提供对资源、工具与提示的标准化管理、通过 JSON-RPC 与客户端通信,并支持审计、策略执行、以及与 OpenClaw 等组件的集成。

网页与API

iTaK MCP Server

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,能够在后端以标准化的 JSON-RPC 风格向 MCP 客户端暴露工具、任务看板等功能,并通过 Bearer Token 进行简易鉴权;提供可将 MCP 服务接入 FastAPI 的路由接口,支持多工具注册与远程调用等具体能力。

AI与计算

claude-skills-vault

基于 Model Context Protocol (MCP) 的服务器集合,提供资源访问、工具注册与执行,以及对话/上下文能力的标准化后端,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用与提示渲染等操作。

AI与计算

Embabel-Agent-MCP Server 示例

基于 Spring Boot 的 MCP(模型上下文协议)服务器实现示例,提供工具暴露、资源管理与 prompts 渲染等核心能力,支持通过 SSE 进行 JSON-RPC 通信,作为 LLM 客户端的上下文与功能后端。包含 Kotlin 与 Java 两种实现以及可直接运行的服务器启动脚本,适配 Claude Desktop 等 MCP 客户端进行集成测试与演示。

AI与计算

ralph-starter MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和提示模板等上下文能力,面向 LLM 客户端以标准化的 JSON-RPC 形式进行交互,支持多传输协议并实现会话管理与能力声明。

网页与API

Claude-Playwright MCP 服务器

基于 Model Context Protocol 的 MCP 后端,为大语言模型提供上下文资源、工具调用和提示模板渲染等能力,支持 JSON-RPC 通信及多传输协议扩展,内置浏览器自动化与会话/缓存等核心模块。

开发者工具

Hack MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端以标准化方式提供上下文资源、可调用工具、以及可定制的提示模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理与多种传输协议(如 STDIO、SSE、WebSocket),实现资源/工具/提示的托管、注册与渲染,面向本地开发环境的可扩展上下文服务。

AI与计算

Sentinel MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,使用 JSON-RPC 规范与客户端通信,提供 MCP 初始化、工具列表以及工具调用等基本服务器端能力,用于向 LLM 客户端暴露资源、工具与提示渲染等上下文服务。

开发者工具

mcp-use

基于 Model Context Protocol (MCP) 的完整 MCP 服务端框架与生态系统,提供可扩展的 MCP 服务器实现、资源与工具托管、提示模板渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,适用于搭建支持 LLM 的上下文服务后端。

网页与API

NLWeb MCP 服务器接口

基于 NLWeb 的 MCP 服务器实现,提供资源、工具和提示模板的标准化访问,并通过 JSON-RPC 与客户端通信,将请求转发到 NLWeb 后端实现具体功能。

AI与计算

Obsidian 本地 MCP 服务器插件

在 Obsidian 中实现一个基于 Model Context Protocol 的 MCP 服务器,提供资源、工具与提示模板的后端服务,并通过 JSON-RPC 与客户端进行交互,支持并发会话、HTTP/HTTPS 传输以及安全访问控制。

AI与计算

Toolkit-MD MCP 服务端

基于模型上下文协议(MCP)的后端实现,提供对 Markdown 内容资源的托管与管理、工具注册与执行,以及可渲染的 Prompt 模板,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用和提示渲染等交互,包含可运行的服务器端代码与完整工具集。

AI与计算

term-llm MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供外部工具注册、资源管理和提示渲染等能力,并通过 JSON-RPC/stdio 等传输与客户端进行交互。

网页与API

Infinity-API MCP Bridge

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器实现,将 Infinity-API 的 FastAPI 应用通过 MCP 桥接暴露为可被 LLM 客户端通过 JSON-RPC 调用的上下文服务,支持资源、工具、提示等的统一管理与访问,并在同一应用中同时提供 REST API 与 MCP 服务。

AI与计算

News Digest MCP Server

基于模型上下文协议(MCP)的后端服务器实现,处理 JSON-RPC 请求,提供初始化、工具列表以及将 Claude 的 selections 写入本地文件的能力,并附带输入校验与日志记录。

AI与计算

MeetGeek MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向大语言模型客户端提供会议数据资源、工具调用和提示模板等上下文服务,并通过 JSON-RPC 进行通信。

AI与计算

AI Gateway MCP 服务器实现合集

基于 Model Context Protocol (MCP) 的企业级后端服务集合,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,用于向大语言模型客户端提供上下文与外部功能访问。仓库中包含多种以 MCP 为核心的服务器实现示例,支持不同传输方式(SSE、HTTP、stdio 等)与部署场景,覆盖从工具注册到调用、以及与外部系统的集成等完整场景。

AI与计算

Google Cloud DevOps MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,向大语言模型(LLM)客户端提供标准化的上下文服务,包括资源(Resources)的管理、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议(如 STDIO、SSE、WebSocket)的扩展能力。

AI与计算

Consult LLM MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 consulta_llm 工具、资源上下文和提示模板,支持 JSON-RPC 请求/响应,当前实现通过 STDIO 传输进行通信,具备资源管理、工具注册与执行、以及提示渲染等核心能力。

网页与API

The Dead Internet MCP Hub

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的标准化对外接口,通过 JSON-RPC/SSE 与 LLM 客户端进行交互,提供会话管理、能力声明以及多传输协议支持的 MCP 服务端能力。

AI与计算

Agentic-MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务集合,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持 JSON-RPC 风格通信和 STDIO/WebSocket 等传输协议,用于向 LLM 客户端暴露上下文、工具和资源等能力。

开发者工具

Hatch MCP 服务器端

基于 Hatch CLI 的 MCP(模型上下文协议)后端实现,提供资源与数据访问、工具注册与执行、以及 Prompts 渲染等能力。服务器通过 JSON-RPC 与 AI 客户端通信,注册多种工具并暴露给客户端,支持通过标准输入/输出(stdio)等传输方式进行交互,适合作为 LLM 助手的上下文与功能服务端。该实现包含完整的服务器端逻辑、工具注册、认证、以及与 Hatch API 的交互。

AI与计算

kemdiCode MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向 AI 客户端以标准化方式提供资源管理、工具注册与执行,以及提示模板渲染等功能,采用 JSON-RPC 与客户端通信并支持多种传输通道。

AI与计算

AIDA MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,作为 AI 助手与 Exegol 安全评估环境之间的中枢,为客户端提供标准化的上下文服务:托管与管理 Resources、注册与执行 Tools、定义与渲染 Prompts,并通过 JSON-RPC 与客户端进行通信与协作。该实现包含可运行的 MCP 服务器代码及相关工具、资源和工作流集成,适配本地开发及容器化部署场景。

开发者工具

Codebase Context MCP 服务器

Codebase Context 的 MCP 服务器实现:基于 Model Context Protocol (MCP),通过 JSON-RPC 与客户端交互,向 LLM 客户端提供上下文信息、资源、工具以及可渲染的提示模板。服务器负责会话管理、能力声明、索引与向量检索等核心后端功能,并支持本地化部署(如通过 Stdio 传输进行 MCP 连接)。

开发者工具

Photoshop MCP 服务器

基于 Model Context Protocol (MCP) 的 Photoshop 后端实现,提供将资源、工具执行能力和提示模板等以标准化 JSON-RPC 形式暴露给 LLM 客户端的后台服务,能够在 MCP 客户端与 Photoshop 的 UXP 环境之间进行交互、执行脚本、读取模式与架构信息并返回结果。

网页与API

Sofia Intuition MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册与执行,以及可渲染的 Prompt 模板等标准化上下文服务,支持多种传输协议(如 SSE、HTTP)并通过 JSON-RPC 与客户端交互。

AI与计算

OpenBotAuth MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供策略评估、计费意图创建与使用计量等工具,通过 JSON-RPC 与 LLM 客户端交互,支持多种传输方式,作为 AI 代理上下文服务的核心服务器组件。

AI与计算

Knowledge Agent MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,用于向 LLM 客户端提供资源、工具和提示模板的标准化上下文与功能服务,支持多传输协议并通过 JSON-RPC 进行通信。

AI与计算

LightMem MCP 服务器

LightMem 的 MCP 服务端实现,使用 Model Context Protocol 提供资源、工具与提示模板的注册与执行,以 JSON-RPC 形式与 LLM 客户端交互。

AI与计算

Chak-MCP 服务器实现与示例

基于 Model Context Protocol(MCP)的服务器实现与示例生态,提供可运行的 MCP 服务器示例、工具暴露与管理,以及用于客户端接入的工具库,帮助构建以 MCP 为载体的上下文服务后端。

AI与计算

Tools 模型上下文协议(MCP)服务器端实现

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,面向大语言模型(LLM)客户端提供标准化的上下文服务。

AI与计算

MCP Rubber Duck 服务器端

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 与客户端进行交互,支持多种传输协议、会话管理、能力声明以及外部桥接等扩展能力,用于为大语言模型应用提供可扩展的上下文服务框架。

AI与计算

CyberMem MCP 服务器端实现

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源(Resource)、工具(Tools)和提示模板(Prompts)的注册、管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议(如 Stdio、HTTP 流和 SSE)。实现了会话管理、能力声明以及对外暴露的内存引擎(OpenMemory/SQlite),可用于在本地或远程环境中为LLM客户端提供统一的上下文服务。

AI与计算

GenAI MCP 服务端集合

一个实现模型上下文协议(MCP)核心功能的后端服务器集合,提供 Weather、Tech News、Math 等 MCP 服务端实现示例。基于 FastMCP 库构建并通过标准的 MCP 传输(如 stdio)暴露工具接口,便于 MCP 客户端注册、请求资源与执行工具,形成标准化的上下文服务后端。

AI与计算

HA Claude Assistant MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 方式暴露 Home Assistant 的资源、工具与提示模板,支持通过 MCP 客户端调用读取实体、执行服务、管理排程等功能。

网页与API

You.com MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理和内容/搜索相关能力,支持通过 JSON-RPC 与客户端通信,涵盖 STDIO 与 HTTP 两种传输方式的 MCP 服务端实现。

AI与计算

Altmetric MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端暴露工具(Tools)与外部数据源访问能力,通过 JSON-RPC 风格的请求/响应进行交互,并支持 STDIO 传输以便与本地或嵌入式 LLM 集成。

AI与计算

Miroir MCP 服务器

基于模型上下文协议(MCP)的后端服务器,实现资源/工具/提示模板的托管与对外能力暴露,支持 JSON-RPC 请求、SSE 实时传输和会话管理,为 LLM 客户端提供标准化的上下文服务。

AI与计算

Deepeval MCP Bridge

将 deepeval-wrapper 的评估逻辑通过 MCP 接口暴露为 FastAPI 服务,提供对 MCP 客户端的标准化上下文评估能力与对 wrapper 的直接访问能力。

AI与计算

Fulcrum MCP 服务器实现

基于 Model Context Protocol 的 MCP 后端实现,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 与客户端进行交互,具备会话管理与多传输通道支持,适用于向大语言模型客户端提供结构化上下文与外部功能入口。

AI与计算

简单MCP 服务器示例

基于模型上下文协议的简单MCP服务器实现,提供工具注册与执行、资源管理、以及Prompt/模板等核心能力,采用JSON-RPC通过标准输入输出(stdio)与客户端通信,便于教育演示和本地测试。

桌面与硬件

TalkToFigma Desktop MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和提示模板的管理与执行,通过 JSON-RPC 与客户端通信,支持多种传输协议(stdio、WebSocket、SSE),用于向大语言模型(LLM)提供可扩展的上下文服务。

AI与计算

Claude Agent Ruby MCP Server

基于 Model Context Protocol (MCP) 的在进程内 Ruby 实现的 MCP 服务器,用于向 Claude Agent 提供工具、资源和提示等上下文能力,并通过 JSON-RPC 风格的 MCP 协议进行通信。

AI与计算

Marketing AI MCP

基于 Model Context Protocol (MCP) 的后端实现与运行环境,包含一个可运行的 Google Forms 相关 MCP 服务器以及用于托管和管理 MCP 子服务器的后端支持,能够通过 JSON-RPC/标准输入输出(stdio)等方式与 MCP 客户端交互,提供工具执行、资源管理与请求协同能力。

开发者工具

Maestro 状态报告 MCP 服务器实现(Rust STDIO JSON-RPC)

基于 Model Context Protocol 的 MCP 服务器实现,提供 maestro_status 工具用于向 Maestro UI 汇报会话状态,并通过 JSON-RPC 与客户端交互,支持 initialize、tools/list、tools/call、notifications/initialized 等消息。服务器通过 STDIO 与 MCP 客户端通信,兼容 Maestro 的状态上报与会话管理,集成在 Maestro 的 Tauri 应用中用于多会话上下文服务。

AI与计算

AgentMesh MCP Tool Server

基于 AgentMesh 治理的 MCP 工具服务器,提供对 MCP 请求的策略管控、审计、信任验证与响应等核心能力,并通过 JSON-RPC 与客户端通信。

AI与计算

Orchestra MCP 服务器

基于 Model Context Protocol 的后端服务,使用 FastAPI 构建,提供资源、工具与提示模板等 MCP 功能,并通过 JSON-RPC 与客户端通信为大型语言模型客户端提供上下文和能力服务(如资源访问、工具调用与提示渲染)。服务器通过对外暴露的 MCP 路由实现对接、会话管理与多传输协议的支持(如 SSE/StdIo/WebSocket 等),以实现可扩展的上下文服务框架。

AI与计算

Raku MCP SDK

基于 Model Context Protocol (MCP) 的完整服务器端实现与示例,提供 JSON-RPC 2.0 交互、Stdio/HTTP 等传输、资源/工具/提示的管理,以及会话与扩展能力,面向将 MCP 服务化以供 LLM 客户端调用的后端应用。

AI与计算

AutoForge MCP 服务端

基于模型上下文协议(MCP)的后端实现,用于向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染等能力,并通过 JSON-RPC/WebSocket 等传输协议进行通信。本仓库包含完整的服务端实现、工具暴露、Prompts 加载与渲染、会话管理以及安全策略,能够作为可运行的 MCP 服务器端提供上下文服务。

AI与计算

tooltest MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/管理、Prompt 的定义与渲染,以及会话管理与协议能力声明,支持通过标准输入输出或流式 HTTP 等传输协议与客户端进行 JSON-RPC 通信,用于为大型语言模型(LLM)提供上下文信息与外部功能访问能力。

AI与计算

Jarvis MCP 服务端 + Agent

基于模型上下文协议(MCP)的后端服务,提供资源、工具和提示模板的管理与渲染,并通过 JSON-RPC 与 LLM 客户端通信;内置 Notion 数据源作为底层存储,包含一个独立的 Agent 服务用于将自然语言转化为可执行工具调用。

AI与计算

Agent Chatroom MCP Server

一个基于 Model Context Protocol (MCP) 的后端服务,提供多代理协作聊天与协调工具,通过 MCP 接口暴露 chatroom_join、chatroom_broadcast、chatroom_check、chatroom_ask、chatroom_leave 等工具,并通过 WebSocket 实时路由消息给 Claude Code 客户端。

AI与计算

Actionbook MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,为大语言模型客户端提供规范化的资源管理、工具注册与执行、以及可渲染的 Prompt 模板等上下文服务,支持 JSON-RPC 通信、会话管理与多传输通道。

网页与API

模型上下文协议(MCP)后端服务器实现—Cocos CLI 组件

基于模型上下文协议(MCP)的后端服务器实现,专注为大语言模型客户端提供标准化的上下文服务:托管资源、注册并执行工具、定义和渲染Prompt模板;通过 JSON-RPC 进行通信,具备会话管理与能力声明,并支持多种传输通道,以实现安全、可扩展的上下文服务框架。

AI与计算

Conscious Bot MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,作为 LLM 客户端的标准化上下文服务入口,提供资源托管、工具注册/执行、提示模板定义与渲染等能力,并通过 JSON-RPC 与前端/其他组件进行通信,支持嵌入式部署与回退模式,便于实现可扩展的上下文服务框架。

网页与API

Verkada 模型上下文协议服务器端实现

基于模型上下文协议(MCP)的 Verkada API 后端服务器,提供资源管理、工具注册与执行,以及提示模板渲染等能力,通过 JSON-RPC 与大语言模型客户端进行通信,具备本地部署与扩展能力,并内置对 Verkada API 的工具集和请求处理框架。

AI与计算

Path402 MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为对话型LLM客户端的后端服务,托管并管理资源(Resources)、注册与执行工具(Tools)、定义并渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输方式,提供会话管理和能力声明的上下文服务框架。

AI与计算

VMark MCP 服务器

基于 Model Context Protocol 的完整 MCP 服务器实现,提供资源管理、工具执行、以及与 LLM 客户端的 JSON-RPC 风格通信,支持多种传输路径与本地侧车集成。

商业系统

Dolibarr MCP 服务器端实现

基于 Model Context Protocol 的 Dolibarr ERP/CRM 的 MCP 服务器实现,提供资源/工具/提示等上下文服务,支持 STDIO 与 HTTP 传输,通过 MCP 协议与客户端进行 JSON-RPC 交互,实现对 Dolibarr 的完整后端集成能力。

AI与计算

AdCP销售代理 - MCP上下文协议服务器实现

基于模型上下文协议(AdCP)的后端服务器实现,提供资源(Resources)托管与管理、工具(Tools)注册及执行、以及提示模板(Prompts)的定义与渲染,并通过JSON-RPC 与客户端通信,支持多租户、多传输协议(如官方的Stdio、SSE、WebSocket)以为LLM应用提供安全、可扩展的上下文服务框架。

网页与API

Metronome MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源/上下文能力的托管,以及通过 JSON-RPC 与客户端通信的能力,支持多种传输方式(stdio、HTTP),用于为 LLM 客户端提供稳定、安全、可扩展的上下文服务。

AI与计算

MCPChecker-MCPServer

基于 Model Context Protocol 的可运行 MCP 服务器实现与测试框架,提供工具、资源托管、工具调用执行、以及对扩展与评测的支持,便于对接大语言模型客户端进行上下文服务测试和集成验证。

开发者工具

Claude Code Harness MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现。该服务器通过 JSON-RPC 提供对工具的注册与执行、会话管理及跨客户端通信能力,支持多工具整合、Plans 与会话监控等功能,并通过标准传输(如 STDIO)与 MCP 客户端进行交互。该实现可作为 LLM 客户端(如 Claude Code、Codex 等)访问的上下文服务后端。

网页与API

v1.npm MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供 npm 包的上下文、健康数据与可用工具,通过 JSON-RPC 形式处置资源、工具、提示模板等能力,并支持 MCP 客户端的连接与调用。

网页与API

CrawlChat MCP 服务端实现

基于模型上下文协议的 MCP 服务器实现,提供资源、工具和提示模板的后端能力,通过 JSON-RPC 与客户端通信,注册并执行工具、管理会话并支持简单的 stdio 传输。

开发者工具

MoonBit MCP 服务器端 SDK

基于 MoonBit 的 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册和提示模板等上下文服务,并通过 JSON-RPC 进行稳定的通信。

AI与计算

Helpmaton MCP 服务端实现

基于 Model Context Protocol(MCP)的服务端实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与 LLM 客户端通信,管理会话与能力声明,并具备多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,用于对接外部数据源、工具和上下文提示等,实现对 LLM 的上下文服务提供与编排。

通信与社交

discord-py-self-mcp

基于 Model Context Protocol 的 MCP 服务器实现,用于将一个 Discord 自助账户的资源、工具与对话模板通过标准化的 MCP JSON‑RPC 后端对接到 LLM 客户端,支持 stdio 传输并以 JSON-RPC 提供资源、工具执行与提示渲染等功能。

网页与API

The Situation Room MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供标准化的资源、工具、Prompts 等能力,通过 JSON-RPC 与客户端通信,支持公开的 MCP 接入点与工具集注册,便于 LLM 客户端获取上下文信息、执行外部功能与获取 Prompt/模板等能力。

开发者工具

Brave Real Browser MCP Server

基于模型上下文协议(MCP)的服务端实现,提供资源管理、工具注册与执行、以及Prompt模板渲染等核心功能,通过JSON-RPC与LLM客户端通信,支持多传输协议(如STDIO、WebSocket、SSE),并在浏览器自动化场景中实现对Brave浏览器及Puppeteer的可扩展上下文服务,适合为LLM代理提供可控、可扩展的上下文和能力服务。

网页与API

MCPProxy-Go 服务端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源与工具的托管与管理、提示模板渲染、以及对外部 MCP 客户端的工具注册与执行能力;同时内置认证、秘密管理、Docker 隔离等安全与扩展特性,支持多传输协议(HTTP/SSE、stdio、WebSocket 等)并通过 JSON-RPC 与客户端通信,形成面向 LLM 场景的上下文服务框架。

AI与计算

PyOMOP MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供对 OMOP CDM 数据库的资源、工具与 Prompt 的标准化暴露,并通过 JSON-RPC/TCP/HTTP 等传输方式与 LLM 客户端进行交互。该实现包含服务器端工具、提示、示例查询及 SQL 执行能力,支持本地 Stdio 以及 HTTP 传输。

AI与计算

FluidMCP

基于 Model Context Protocol 的多 MCP 服务器后端网关,提供统一的 JSON-RPC 服务来托管资源、注册工具并渲染提示模板,通过 FastAPI 将多个独立 MCP 服务器整合为一个可扩展的上下文服务入口。

AI与计算

Agentic QE MCP Server

基于 Model Context Protocol 的后端服务,作为 MCP 服务器向 LLM 客户端以标准化方式提供资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多传输协议接入(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

开发者工具

Sentinel — MCP 流量透传与观测代理

基于 Model Context Protocol (MCP) 的观测型后端代理,作为 MCP 客户端与服务器之间的透明中间件,实现对 JSON-RPC 请求/响应的零拷贝透传,同时提供实时可视化、历史日志与可选的审计签名能力,帮助开发者在不干预执行的前提下对工具链进行观测和回放。

AI与计算

Oh My OpenCode MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输协议与会话管理以实现安全、可扩展的上下文服务。

开发者工具

TemPad Dev MCP 服务器

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具执行与提示模板渲染等能力,并通过 JSON-RPC 与客户端通信。实现了服务器端的工具注册与执行、资源导出与资产管理、以及对 Prompts/模板的支持,支持多传输协议(如标准输入/输出、SSE、WebSocket 等),用于为大模型/LLM 客户端提供标准化的上下文服务与能力暴露。

AI与计算

Rogue-基于模型上下文协议的MCP服务器示例

基于模型上下文协议(Model Context Protocol,MCP)的后端示例,封装 Shirtify 代理并通过send_message工具向MCP客户端提供上下文对话能力与外部功能调用,支持 SSE/streamable_http 等传输模式的JSON-RPC风格交互。

AI与计算

Rosetta Ruchy MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供翻译、分析与能力声明等核心服务,通过标准化接口向多语言客户端提供资源访问、工具执行与 Prompt 模板相关能力,并以 JSON-RPC 风格的 API 与客户端交互,具备会话管理、能力声明、以及可扩展的传输与部署方式,适配代码翻译及形式化验证等后续扩展场景。

AI与计算

Trusted MCP 伺服端(AICC Trusted MCP)

基于 Model Context Protocol (MCP) 的可信服务端实现,提供资源、工具注册与执行、以及提示模板渲染等核心能力,支持端到端安全传输并可通过多种传输方式与客户端对话。该实现包含服务器逻辑、信任机制整合、以及面向 MCP 客户端的安全传输客户端接口。

AI与计算

Xiaozhi ESP32 MCP 服务器(Golang 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。

AI与计算

OpenMemory MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。

AI与计算

Daisy Days MCP 服务端

基于 Model Context Protocol 的 MCP 后端服务器,实现资源与工具的管理,并通过 JSON-RPC 接口与 LLM 客户端进行交互,支持多工具与内容生成功能。

AI与计算

tmcp-MCP服务器实现

基于模型上下文协议(MCP)的 Rust 实现,提供服务器端与客户端的完整 MCP 功能,包括资源、工具、提示的托管与管理,以及通过 JSON-RPC 的请求/响应处理,支持多传输通道(stdio、TCP、HTTP SSE)与会话管理,面向在 AI 应用中提供上下文与功能的后端服务。

AI与计算

atlas-mcp

基于模型上下文协议(MCP)的服务器实现,向LLM客户端提供ATLAS Central Page的资源、工具与提示模板的统一访问接口,支持JSON-RPC风格请求/响应,以及多传输模式(如STDIO、HTTP)以服务化LLM上下文信息和能力查询。

AI与计算

Klondike MCP Server(Klondike Spec CLI)

基于模型上下文协议(MCP)的后端实现,向 MCP 客户端暴露 Klondike Spec 的资源、工具和提示模板等能力,并通过 JSON-RPC 形式处理请求与响应,支持多传输协议用于与大型语言模型的无缝对接。

AI与计算

Gobby MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器框架,提供资源与工具管理、提示模板,以及通过 JSON-RPC/HTTP/WebSocket 等协议与客户端交互的上下文服务能力。

AI与计算

MCP 服务器实现学习与示例

基于 Model Context Protocol (MCP) 的服务器端实现示例,展示如何通过 JSON-RPC 提供资源管理、工具执行与 Prompt 模板渲染等核心能力,并支持通过标准输入输出 (stdio) 的传输模式与客户端进行通信,适合作为学习和实验用途的 MCP 服务器实现。

AI与计算

claudemem MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 Claude Code 客户端以标准化方式提供资源管理、工具注册与执行、以及提示模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并提供本地/云模型的嵌入索引、检索与分析能力。该仓库实现了完整的 MCP 服务器端逻辑与相关工具集成,而不仅仅是客户端示例。

AI与计算

DevTeam6 MCP 服务器集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供 Resources 的托管与管理、Tools 的注册与执行,以及可扩展的提示模板/交互能力,并通过标准化的 JSON-RPC 风格接口与 LLM 客户端进行通信,支持会话管理与多种传输场景。当前实现包括 MemoryMCPServer 与 RAGMCPServer 等服务器骨架,可作为 MCP 客户端对接的后端服务端。

AI与计算

AI-Infra-Guard MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 与 LLM 客户端进行通信,支持多种传输通道(如 SSE、StdIO、WebSocket),为大语言模型应用提供标准化的上下文与能力服务。

AI与计算

Polar MCP 服务器桥接

基于模型上下文协议(MCP)的服务器实现组件,作为 Polar 电子应用的一部分,提供工具定义查询、工具执行与健康检查等核心接口,通过 HTTP 端点与客户端通信,并通过 Electron 渲染进程 IPC 与后台工具 definition/执行能力对接,从而向 LLM 客户端暴露资源、工具与提示渲染能力。

网页与API

PraisonAI MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket)以为 LLM 客户端提供可扩展的上下文服务框架。

开发者工具

Aspose MCP Server

基于模型上下文协议(MCP)的后端服务器实现,向大型语言模型(LLM)客户端提供统一的资源/工具/提示模板等上下文服务,通过 JSON-RPC 进行通信,并支持多传输协议与会话管理,内置 Word/Excel/PPT/PDF 等办公文档处理能力的托管实现。

AI与计算

Tactus MCP 服务端实现

基于模型上下文协议(MCP)的服务器端实现,面向后端提供统一的资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力申明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)实现安全、可扩展的上下文服务,方便 LLM 客户端调取资源、执行工具与获取定制的 Prompt。该仓库明确包含 MCP 相关的服务端实现与集成能力。

AI与计算

MonicaHQ MCP Server

基于 Model Context Protocol 的 MCP 服务器,使用 Spring Boot 实现,提供 MonicaHQ CRM 数据的资源访问、工具调用及内容渲染,支持 STDIO 与 WebSocket/HTTP 等传输模式,面向大语言模型客户端(如 Claude Desktop)提供标准化的上下文服务。该服务器实现了资源管理、工具注册与执行,以及提示模板渲染等核心能力,以 JSON-RPC 2.0 进行通信。

AI与计算

365DaysOfData MCP 服务器(From Scratch)

基于模型上下文协议(MCP)的后端实现示例,包含可运行的 MCP 服务器代码、工具/资源注册以及简单的 Prompt 管理能力,能够通过标准化的 JSON-RPC 方式与客户端交互。

网页与API

Brave Search MCP Server Suite

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的标准化管理与执行,并通过 JSON-RPC 与客户端进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket/HTTP)以实现对本地资源、外部能力和交互场景的可扩展上下文服务。

开发者工具

Myceliumail MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向 MCP 客户端提供标准化的资源访问、工具执行和 Prompt 模板渲染等能力,支持多传输协议和会话管理,适配 Claude Desktop 等 MCP 客户端的上下文服务需求。

开发者工具

Cursor Engineering Rules MCP 服务端

基于模型上下文协议(MCP)的服务器实现,提供对 Cursor 规则、工具调用和工作流指南的标准化上下文服务,便于与LLM客户端集成与扩展。

AI与计算

Toonify MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供将结构化数据转换为 TOON 格式以实现显著的令牌节省,并对接 Claude Code 插件与 MCP 客户端,暴露工具调用与资源访问能力,支持通过标准输入输出(stdio)进行通信与会话管理,同时内部集成本地统计指标。

AI与计算

Krolik MCP 服务器(Claude Code 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管与管理、工具注册/执行,以及提示模板的定义与渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议的上下文服务框架。

AI与计算

mcp-server-starter

一个基于 Model Context Protocol 的最小可运行服务器实现,使用 stdio 传输,与客户端通过 JSON-RPC 进行交互,公开一个简单的 hello 工具,便于开发者快速上手 MCP 服务端开发。

桌面与硬件

YakShaver MCP Server (Desktop Electron 后端)

基于模型上下文协议(MCP)的后端实现,作为 YakShaver 桌面应用的服务端,负责托管与管理内部 MCP 服务器、注册与执行工具,以及定义与渲染提示模板,通过 JSON-RPC 进行与 LLM 客户端的标准化通信,提供安全、可扩展的上下文服务框架。

AI与计算

CC-Switch MCP 服务器实现

基于模型上下文协议(MCP)的服务器端实现,提供资源托管、工具注册/执行以及 Prompts 定义与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式并具备会话管理与跨应用的 MCP 服务器管理能力。

AI与计算

Sub Bridge MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,提供资源管理、工具注册与执行、以及 Prompts 定义与渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行通信,同时集成对 OpenAI/Claude API 的代理访问能力,面向 Cursor 等前端实现上下文服务。

开发者工具

Jenkins MCP Server Plugin

基于 Model Context Protocol (MCP) 的 Jenkins 服务端实现,提供对外暴露的工具、资源与提示等上下文能力,支持通过 JSON-RPC 进行通信,包含 SSE、流式等传输端点以及对 Jenkins 实例的会话与能力声明管理。

AI与计算

BrowserWing MCP 服务器

基于模型上下文协议(MCP)的后端服务器,提供 MCP 指令注册与执行、资源与工具的管理,以及提示模板的渲染,供大模型客户端通过 JSON-RPC 调用,并可通过多传输协议进行通信。

AI与计算

Chronicle MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的注册与渲染,通过 JSON-RPC 与 AI 客户端进行交互,支持以标准输入输出(StdIO)传输的通信方式,为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

CloudBase MCP Mini Manus 服务器

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源、工具与示例性提示模板等能力,支持通过 JSON-RPC 与客户端通信,且实现了通过不同传输协议(如 SSE/HTTP)进行交互的服务器端逻辑。

AI与计算

Code Guardian MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议接入。

开发者工具

arifOS MCP Server

基于 Model Context Protocol (MCP) 的后端治理与资源/工具/提示模板管理服务器,面向 LLM 客户端提供标准化的上下文数据、可注册/执行的工具集以及可渲染的 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备扩展传输协议(如 STDIO、SSE、WebSocket)的能力,为 LLM 应用提供安全、可审计的上下文服务框架。

网页与API

MCP 工具服务器示例

基于Model Context Protocol,提供BMI计算和天气查询工具的服务器示例。

AI与计算

jailbreak-mcp

一个MCP服务器代理,用于管理和过滤多个后端MCP服务器的能力,优化LLM客户端的上下文使用。

商业系统

Project Horizon 股票价格 MCP 服务器

为AI代理提供标准化的股票价格查询工具服务,基于模型上下文协议(MCP)实现。

AI与计算

MCP时间工具服务器 (Snowgoose内嵌示例)

Snowgoose仓库内包含的一个基于Model Context Protocol (MCP) 的简单时间工具服务器实现。

AI与计算

MCP Server (Spring AI based)

基于Spring AI框架构建的MCP服务器,提供资源、工具和Prompt模板管理,并通过SSE实现与LLM客户端的通信。

AI与计算

Groq Compound MCP Server

为 Groq 模型提供基于模型上下文协议 (MCP) 的服务器,支持实时信息问答和代码执行工具。

AI与计算

ContextBase Server

ContextBase Server 是一个专为AI应用设计的模型上下文协议(MCP)服务器,用于安全地存储、管理和检索用户上下文信息,支持构建个性化和持久化的AI交互体验。

开发者工具

MCP Lite

MCP Lite 是一个基于 Ruby 开发的轻量级模型上下文协议(MCP)服务器实现,旨在为 LLM 应用提供高效、可扩展的上下文服务框架。

AI与计算

AgentMCP:多智能体协作平台

AgentMCP是一个开源平台,实现了模型上下文协议(MCP),旨在促进不同AI框架下智能体之间的无缝协作和通信。

AI与计算

Proxy Base Agent (PBA)

Proxy Base Agent是一个基于Proxy Structuring Engine (PSE)构建的状态化Agent框架,通过MCP协议支持动态扩展工具能力,保证Agent工具调用的可靠性。

开发者工具

Go-MCP:模型上下文协议Go语言实现

Go-MCP 是一个 Go 语言 SDK,用于构建和交互 Model Context Protocol (MCP) 应用,支持服务端和客户端实现。

网页与API

MCP REST Server Transport

基于 RESTful API 的 MCP 服务器传输层实现,支持通过 HTTP 协议接收和发送 MCP 消息。

开发者工具

Sentry MCP服务器

Sentry MCP服务器是一个原型项目,旨在为LLM应用提供访问Sentry错误监控数据的工具,作为模型上下文协议(MCP)的远程服务端。

开发者工具

go-modelcontextprotocol库

go-modelcontextprotocol是一个Go语言库,用于构建符合模型上下文协议(MCP)的服务端应用,提供资源管理、工具注册和Prompt模板定义等核心功能。

开发者工具

Figma Context MCP Server

Figma Context MCP Server是一个基于模型上下文协议(MCP)的服务器,旨在将Figma设计数据以结构化的方式提供给AI编码工具,从而提升AI代码生成的准确性和设计一致性。

AI与计算

Pebble

Pebble是一个通用通信协议库,旨在为AI Agent提供标准化的上下文服务,支持模型上下文协议(MCP),并实现跨框架的Agent交互。

AI与计算

MCP Lambda Server Layer

为AWS Lambda函数提供MCP服务器基础设施,支持SSE协议,简化LLM应用在AWS环境中的上下文服务构建。

AI与计算

GIMP AI助手 (GIMP-MCP)

通过模型上下文协议(MCP)连接AI模型与GIMP,实现图像编辑的智能化扩展。

AI与计算

EventCatalog MCP Server

为 EventCatalog 提供 MCP 接口,支持 Claude、Cursor 等 MCP 客户端访问 EventCatalog 的架构文档和信息。

开发者工具

MCPR

Rust实现的模型上下文协议(MCP)库,提供构建MCP服务器和客户端的工具和库。

开发者工具

AgentIQ

AgentIQ是一个灵活的库,旨在将企业级智能体与各种数据源和工具无缝集成,并兼容模型上下文协议(MCP),作为一个有效的MCP服务器实现。

AI与计算

Image Generation Server

Image Generation MCP Server是一个基于Model Context Protocol的后端应用,允许LLM客户端通过调用工具生成图像,并支持配置图像参数和保存路径。