返回首页

"JSON-RPC" 标签

1252 个结果

标签搜索结果

AI与计算

succ MCP 服务器实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源、工具、提示模板等的标准化后端服务,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输方式。

网页与API

VerifiMind-PEAS MCP Server

基于 Model Context Protocol 的 VerifiMind-PEAS MCP 服务器实现,提供 X-Z-CS RefleXion Trinity 的多模型评审、资源与工具管理,并通过 JSON-RPC 的 MCP 协议与客户端通信。

AI与计算

WhatsApp MCP-Go 服务器

基于 Model Context Protocol (MCP) 的 WhatsApp 后端服务器实现,使用 Go 语言编写,提供工具注册与执行、会话管理与多传输模式支持,旨在为大模型客户端提供统一的资源访问、外部功能调用和上下文渲染能力,并可与 WhatsApp Bridge 集成使用以实现对话上下文的实时服务。

AI与计算

Angel OS MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具和提示模板等以标准化 JSON-RPC 形式暴露给 LLM 客户端,通过 stdio 传输与 Claude Code/LEO 等对话系统进行交互,并支持多租户、工具注册、资源管理和会话能力声明。

AI与计算

Runbook AI MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供浏览器自动化能力的资源、工具与提示模板,通过 JSON-RPC 与 MCP 客户端通信,并通过 WebSocket 与 Chrome 扩展协同执行任务。

AI与计算

Shepherd MCP 后端服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的定义渲渲染,并通过 JSON-RPC 与 Claude Desktop 等 MCP 客户端进行通信,支持多传输方式以实现对大语言模型的上下文服务。

AI与计算

Healthcare ChatBot MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,使用 FastMCP 将 ChatBot 的查询、会话历史和配置信息以工具的形式对 MCP 客户端暴露,并支持通过 MCP 客户端进行跨进程/跨平台的上下文交互。

AI与计算

AgenticMemory MCP 服务器

基于 Model Context Protocol (MCP) 的内存图后端服务器,提供标准化的 JSON-RPC 接口向各类 MCP 客户端暴露资源、工具、提示以及会话管理能力,并支持多客户端并发访问与会话持久化。

AI与计算

Claude Code Misc - Meta Prompter MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Prompt 的结构化评估能力,通过标准化工具接口向 LLM 客户端暴露评估功能,并通过标准输入/输出的传输通道(如 STDIO)进行 JSON-RPC 通信。

AI与计算

AI Productivity MCP 统一大脑服务器

基于 Model Context Protocol 的本地 MCP 服务器,向本地 AI 客户端提供 9 个系统工具(如获取Last Session Context、路由推荐、效率快照、优化建议等),并通过标准的 JSON-RPC 形式进行资源、工具与 Prompt 的统一访问与渲染。该仓库实现了一个完整的 MCP 服务器端,包含注册工具、处理请求、会话与推送等核心能力。

AI与计算

Fiji MCP 服务器(ImageJ/Fiji 集成的模型上下文后端)

一个基于 Model Context Protocol (MCP) 的后端实现,用于向大语言模型客户端提供 Fiji / ImageJ 的资源、工具和提示模板等上下文信息,并通过 JSON-RPC 进行通信。核心功能包括托管 Fiji 资源、注册可调用的工具、渲染提示模板,以及会话管理。该实现通过 fastmcp 库暴露一个服务器实例,注册工具并提供运行入口。当前为 Proof of Concept(POC),依赖 ImageJ/Fiji 的 Java/JVM 环境以及对应的 Python 封装,便于在本地桌面环境或开发机上进行功能验证。

网页与API

graphql-mcp-server-tools

基于 GraphQL 架构,能够从 GraphQL 模式自动提取 Query/Mutation,生成一组 MCP 工具并通过 JSON-RPC 暴露,供大模型客户端查询、操作数据以及执行外部功能。

开发者工具

Clarvis MCP Server

基于 Model Context Protocol(MCP)的嵌入式后端实现。提供资源访问、工具执行与提示/上下文渲染能力,使用 JSON-RPC 通过 Unix 套接字与 LLM 客户端通信,包含会话管理、能力声明与多种传输适配的实现框架。该实现将资源、工具、以及与 LLM 交互所需的上下文信息暴露给客户端,方便构建对话型应用的上下文服务后端。

网页与API

Axon MCP Server

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,旨在为 LLM 客户端提供标准化的上下文服务:托管资源、注册和执行工具,以及定义与渲染提示模板,并通过 HTTP JSON-RPC 与客户端进行交互,支持会话管理与多传输模式(如 HTTP/StdIO)。

AI与计算

AI Agent MCP 服务端实现

基于 Model Context Protocol (MCP) 的服务端实现,提供资源、工具和 API 形式的 MCP 请求处理能力,并将本地技能、外部源及 Bitwarden 等工具通过 JSON-RPC 暴露给 LLM 客户端,支持多传输协议与会话管理,适用于将 AI 辅助能力以标准化上下文服务提供给大语言模型。

AI与计算

Agent Skills MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供技能目录(Resources)、可注册与执行的工具(Tools)、以及可渲染的 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端通信以提供上下文与能力服务。

AI与计算

Agent Backlog MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供对代理任务看板的资源、工具、提示等能力,通过 JSON-RPC 的 MCP 交互向 LLM 客户端暴露 backlog、编辑、查询等能力,并包含本地/团队模式、UI Kanban 界面以及 Leader 选举等特性。该仓库中的 MCP 服务端实现了工具注册、请求分发、日志与数据库契合,以及与前端 UI 的协同工作。

AI与计算

Lemma MCP 服务端实现

基于 Lemma 引擎实现的 MCP(Model Context Protocol)服务器,提供对资源、工具与 Prompt 的标准化访问,通过 JSON-RPC 与客户端通讯,支撑 LLM 在后端获取上下文、执行外部功能与渲染提示模板等能力。

AI与计算

Claude Code Tool Manager MCP Gateway

基于模型上下文协议(MCP)的服务器实现,提供网关端的懒加载工具与后端MCP连接管理,能够通过标准化的JSON-RPC风格交互向LLM客户端暴露可用的MCP、工具和提示模板,并支持多传输协议(如 stdio、HTTP/SSE 等)。

AI与计算

Spellbook MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供统一的资源数据、工具调用、以及可渲染的 Prompt 模板等上下文服务,通过 JSON-RPC 进行通信,支持会话管理、能力声明与多传输协议接入。

AI与计算

Vigil MCP 服务器

基于 Model Context Protocol 的后端服务,按照 MCP 标准提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,通过 JSON-RPC 作为传输协议与 Claude Desktop/Code/Cursor 等客户端进行上下文对话与功能调用。该服务器内置会话管理、能力声明,并支持多种传输协议,以为 LLM 应用提供可扩展、安全的上下文服务框架。

AI与计算

Aura MCP Server(Rust实现)

Aura 是基于 Rust 的 MCP 服务器实现,提供资源、工具和提示的标准化管理与执行,并通过 JSON-RPC 在标准输入输出等传输下与 LLM 客户端通信,支持多种传输协议以提供可扩展的上下文服务。

数据库与文件

Postgres MCP 服务器

基于 Model Context Protocol (MCP) 的 PostgreSQL 后端服务器实现,向大语言模型客户端提供数据库资源、可调用工具、以及可渲染的 Prompt,支持多种传输协议(stdio、HTTP/SSE),并内置认证、会话管理与安全策略。

AI与计算

open-context MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供本地化的上下文资源、工具注册与内置提示模板渲染能力,并通过 MCP 的 JSON-RPC 与客户端通信,支持会话管理与本地存储。

AI与计算

GZOO Cortex MCP 服务器

基于 Model Context Protocol 的后端实现,提供对知识图谱资源、工具与提示模板的托管与查询,通过 JSON-RPC(以 STDIO 传输)与 LLM 客户端进行交互,支持本地与云端推理的调度与安全控制。

AI与计算

EV2090 MCP 后端服务器实现

基于 Model Context Protocol (MCP) 的服务器实现,提供资源、工具、提示等接口的标准化管理与访问,支持 JSON-RPC 的请求/响应,通过 WebSocket、SSE、HTTP POST 等传输方式与 LLM 客户端进行交互,并在 Cloudflare Workers 上实现会话管理、权限控制和多传输协议支持的后端服务框架。

AI与计算

SkillBoss MCP 服务器(Model Context Protocol 实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、模型/能力管理,以及通过 JSON-RPC 形式对外服务。服务器通过标准传输(如 StdIO)与 MCP 客户端通信,支持多模型调用、任务编排与可扩展的上下文能力,为 LLM 客户端提供统一的上下文与外部功能入口。

网页与API

ShaderBase MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,Cloudflare Worker 端对外提供通过 JSON-RPC 的上下文服务,向 LLM 客户端提供着色器资源检索、工具调用与 Prompts 渲染等能力,并支持多种传输与兼容端点。该实现包含完整的 MCP 请求/响应处理、会话管理与多端点支持。]

AI与计算

Plasmite MCP 服务器

基于 MCP(Model Context Protocol)实现的后端服务,向大语言模型(LLM)客户端以标准化的 JSON-RPC 方式提供资源、工具和提示模板等上下文能力,并支持远程访问、UI 展现及多传输协议等场景。

网页与API

LocalBoards MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 形式与搭载的 LLM 客户端进行安全、可扩展的上下文服务。该仓库实现了一个可运行的 MCP 服务器端,包含对看板相关资源(Boards、Areas、Cards、Comments 等)的管理、工具执行及通知等功能,并集成了身份认证、邮件发送等服务。

AI与计算

Binance MCP 服务器(Claude 集成示例)

基于 Model Context Protocol 的后端服务器实现,向 LLM 客户端(如 Claude)提供 Binance 的市场数据、账户信息和交易工具等资源与工具。通过 JSON-RPC 方式暴露工具接口,并使用标准传输(如 Stdio)与客户端通信,支持会话管理与能力声明,便于在 AI 场景中实现可扩展的上下文服务。

AI与计算

Calliope MCP 服务端实现

基于 Model Context Protocol (MCP) 的服务器实现,向大语言模型客户端提供标准化的上下文服务与能力,包括资源管理、工具注册/执行以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 HTTP/HTTPS、stdio),具备会话管理、能力声明与可扩展的后端架构。

AI与计算

mcp-cli

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及可渲染的 Prompt 模板等能力,并通过 JSON-RPC 在多种传输通道(stdio、SSE、HTTP、WebSocket)与客户端进行通信,支持会话管理、热更新和工具缓存等特性。

数据库与文件

Postgres MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向大语言模型客户端提供对 PostgreSQL 数据库的上下文信息、工具执行与数据访问能力,通过 JSON-RPC 进行通信,支持查询、表/视图与约束描述、索引、慢查询分析等多种工具的统一调用。

AI与计算

Horizons MCP Gateway

基于 Horizons 的 MCP 网关实现,提供以 JSON-RPC 2.0 进行跨 MCP 服务的请求分发与路由能力,支持标准传输(stdio、HTTP),实现多租户场景的工具调用与资源管理的入口网关。通过配置可将客户端的 MCP 请求路由到一个或多个子 MCP 服务器,具备工具调用、配置管理和工具发现等核心功能。

AI与计算

NietzscheDB MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等功能,通过 JSON-RPC 与 LLM 客户端交互,支持多传输协议以便在不同环境中提供上下文与外部能力访问。

AI与计算

zhi Model Context Protocol 服务端

基于 Model Context Protocol 的后端服务器,向大型语言模型客户端提供资源管理、工具注册/执行以及可定制的提示模板等上下文服务;通过 JSON-RPC 进行请求/响应,并支持多种传输方式(如标准输入输出、HTTP SSE、WebSocket),实现会话管理与能力声明,面向配置管理场景的强扩展后端。

网页与API

SERVYSALUD360 MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具与提示模板(Prompts)的标准化上下文服务,并通过 JSON-RPC 2.0 与 MCP 客户端通信,支持多租户数据管理、工具执行以及对外部分析/推理能力的接入。

AI与计算

Tukuy MCP 服务器

基于 Model Context Protocol 的 MCP 后端实现,提供资源与工具的托管管理、工具注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)以为 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

Konkin MCP 服务端

一个基于 Model Context Protocol (MCP) 的服务端实现,作为后端向大模型/LLM 客户端提供资源、工具调用和提示模板等上下文信息,通过 JSON-RPC 形式进行通信,并支持 SSE、WebSocket 等传输方式及会话管理、能力声明等安全可扩展的上下文服务框架。

开发者工具

BizTalk to Logic Apps MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,作为后端上下文服务端,向 MCP 客户端提供资源、工具、提示模板等(Resources、Tools、Prompts)的管理与执行能力,并通过 JSON-RPC 与客户端进行通信。服务器负责会话管理、能力声明、以及对多种传输协议的支持(本仓库实现了标准输入/输出的 stdio 传输模式),为 LLM 应用提供安全、可扩展的上下文服务框架,适用于 BizTalk 到 Logic Apps 的迁移场景。

AI与计算

Mastra MCP Server 框架

基于 Model Context Protocol (MCP) 的后端框架,提供资源托管、工具注册与执行、以及提示模板渲染,并通过多传输通道与客户端进行标准化的 JSON-RPC 通信,支持在 Express、Hono、Fastify、Koa、Hono 等适配器上部署的 MCP 服务。

AI与计算

Cortex-MCP 服务器

基于 Model Context Protocol 的后端服务,实现对资源、工具和 Prompts 的标准化上下文提供,配合 MCP 客户端通过 JSON-RPC 进行交互,支持多传输通道(stdio/HTTP+SSE)并具备会话管理与能力声明能力。

开发者工具

RC Engine MCP 服务器端框架

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、并渲染/提供 Prompt 模板等能力。服务器通过 JSON-RPC 与客户端通信,内置会话管理、能力声明,并支持多种传输协议(如 Stdio、SSE、WebSocket),可在 IDE 中以 MCP 服务器的形式集成,为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

hop MCP 服务器端实现

基于 Model Context Protocol (MCP) 的服务器端实现,为 AI 助手提供对 Hop 配置、连接、分组、历史、工具和命令构建等能力的标准化访问;通过 JSON-RPC 与客户端通信,支持只读工具、可选开启的远程执行工具,以及可浏览的资源接口,便于 AI 助手对服务器进行查询、检索和执行操作。

网页与API

JD.AI MCP 服务端

基于 JD.AI 架构的 MCP 服务器实现,提供资源管理、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行上下文服务交互,支持多传输协议以实现安全可扩展的后端上下文服务。

开发者工具

ha-mcp - MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端提供 Home Assistant 的资源、工具和提示模板,并通过 JSON-RPC 标准化通信实现上下文管理、资源访问、工具执行与模板渲染等能力,支持多传输协议(以 WebSocket 为主,REST 提供部分 CRUD 功能),实现对 LLM 的安全、可扩展上下文服务。

AI与计算

RecallNest MCP 服务器

基于模型上下文协议(MCP)的本地内存检索与管理后端,提供“搜索/解释/蒸馏/记忆 Pin/导出”等工具,面向与 LLM 客户端的上下文服务与功能扩展。通过 JSON-RPC 风格的 MCP 接口对外暴露服务,支持记忆资源、工具执行、以及提示模板的渲染等能力。

AI与计算

GitNexus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板的标准化上下文服务,用于向大语言模型客户端提供代码库知识、资源访问、工具执行和提示渲染能力,并通过多种传输协议与客户端进行交互。

网页与API

Sardis MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息与功能,包括资源管理、工具注册/执行以及提示模板的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如标准输入输出、SSE、WebSocket)实现轻量级、高扩展性的上下文服务。

AI与计算

DaisyUI MCP Server

基于 MCP 协议实现的后端服务器,提供 DaisyUI 组件文档的资源查询与工具调用接口,供 LLM 客户端通过 JSON-RPC 进行组件列表和详细文档的获取与交互。

AI与计算

Super Turtle MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器集合,提供可标准化的数据资源访问与工具执行能力,供大语言模型客户端通过 JSON-RPC 进行交互,并通过 STDIO 传输实现跨进程通信,支持多服务器并行运行。该仓库实现了实际可运行的 MCP 服务器端代码,以及与之配套的配置和测试。

网页与API

Daiso MCP Server - 基于模型上下文协议的多服务后端

在 Cloudflare Workers 上实现的 MCP 服务器,采用插件化架构聚合多家服务(Daiso、CU、Olive Young、Megabox、CGV),通过 JSON-RPC 与 LLM 客户端进行通信,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,并对 MCP 客户端提供多种传输与会话管理支持,以及可扩展的 REST 代理与文档端点。

AI与计算

DURA 模型上下文协议服务器实现

基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式以为大语言模型应用提供可扩展的上下文服务框架。

AI与计算

SBIR Grants MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册与执行、以及提示模板的统一渲染,通过 JSON-RPC 与 LLM 客户端进行高效的上下文服务交互,支援知识库检索、文档生成、ROI 计算等功能。

AI与计算

Cognithor MCP 服务器

基于 Cognithor 的 Model Context Protocol (MCP) 服务器实现,提供资源(Resources)托管与管理、Tool(工具)注册与执行,以及 Prompt 模板的定义与渲染等能力;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备多传输通道(如 StdIO、SSE、WebSocket)的可扩展上下文服务框架。}

AI与计算

Sentinel AI - MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供资源、工具与提示模板等上下文能力,通过 JSON-RPC 进行请求/响应处理,并支持会话管理与多传输协议扩展,适用于将 LLM 客户端接入 Sentinel AI 的上下文服务框架。

AI与计算

Ship Safe Model Context Protocol 服务端

基于 Model Context Protocol(MCP)的后端服务,向大型语言模型(LLM)客户端提供标准化的资源托管、工具注册与执行,以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持可扩展的传输方式与会话管理。

AI与计算

AgentPool MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与访问、工具注册与执行、以及提示模板的定义与渲染,通过 JSON-RPC 与客户端通信,支持多传输协议并具备会话管理和能力声明能力,用于为 LLM 客户端提供统一的上下文与功能服务。

AI与计算

Agent Zero MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现。该仓库提供资源、工具、提示模板等的托管与管理,并通过 JSON-RPC/多传输协议与 MCP 客户端进行交互,实现对上下文信息、工具执行以及提示渲染的标准化后端服务。

AI与计算

Corpus Intelligence MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化方式提供资源、工具与提示模板,并通过 JSON-RPC 与客户端交互,实现会话管理、能力声明与多传输协议支持。

AI与计算

EstateWise MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,为 MCP 客户端提供资源管理、工具注册与执行、以及 Prompt 渲染等功能;通过 JSON-RPC 与客户端通信,支持多种传输模式,面向大型语言模型(LLM)的上下文服务与任务协同。

网页与API

Gmail MCP 服务器

基于 Model Context Protocol 的后端实现,提供 Gmail 相关的资源、工具与提示模板,通过 JSON-RPC 与 LLM 客户端进行交互,支持资源管理、工具执行与提示渲染等核心能力。

AI与计算

Muster MCP 服务器端实现与元工具框架

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型(LLM)客户端提供结构化的上下文信息、资源、工具和提示模板,并通过 JSON-RPC 进行通信;同时包含资源、工具、提示的托管与渲染、工具发现、元工具接口,以及多传输协议支持与会话管理等完整功能。

AI与计算

SUMO-MCP-Server

基于 Model Context Protocol 的 MCP 服务器实现,提供与 SUMO 交通仿真系统的资源、工具与工作流等能力,通过 JSON-RPC 的标准化接口对接大型语言模型客户端,支持在 STDIO 等传输方式下的交互。

AI与计算

BrowserForce MCP服务器

基于 Model Context Protocol (MCP) 的本地化服务器,提供资源、工具与提示模板的标准化管理与访问,并通过 JSON-RPC 与客户端通讯,支持多传输协议(如 stdio/SSE/WebSocket)以便让 LLM 客户端在本地安全、可扩展地上下文化浏览器环境。

AI与计算

Atmosphere MCP 服务端

基于 Atmosphere 框架实现的 Model Context Protocol(MCP)服务器。该服务端承担资源管理、工具注册与执行、以及 Prompt 模板的渲染等核心 MCP 功能,并通过 JSON-RPC 与 LLM 客户端通信,提供安全、可扩展的上下文服务框架,同时支持多传输协议(WebSocket、SSE、Long-Polling 等)以适配不同场景。

开发者工具

PMAT-MCP-Agent-Toolkit

基于 Model Context Protocol (MCP) 的服务器实现与工具包,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等能力,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议(_stdio、SSE、WebSocket)等,目标为为 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

Ouroboros MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端通信;支持会话管理、能力声明與多传输协议接入,形成可扩展的 LLM 上下文服务框架。该仓库包含完整的 MCP 服务端实现、客户端适配、工具与资源注册,以及相关的测试与示例。注:文档和示例中的实现细节来自代码库中的 mcp 目录及相关模块。

AI与计算

PePeRS MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大语言模型客户端提供统一的资源访问、工具调用和提示模板渲染能力;通过 JSON-RPC/HTTP+SSE 等协议与客户端通信,支持多传输协议、会话管理与能力声明,便于将上下文、工具和提示模板整合到 LLM 工作流中。

AI与计算

Medsci MCP 生物医学多域后端

基于 Model Context Protocol (MCP) 的后端服务器集合,为大模型客户端提供资源管理、工具执行与 prompts 渲染等标准化上下文服务,包含药物、蛋白、组学、文献、成像、沙盒等领域服务器,以及 PaperQA 等深度分析组件的本地化实现。

开发者工具

Cheat Engine MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,为 LLM 客户端提供 Cheat Engine 的上下文服务,包括资源管理、工具注册与执行,以及提示模板的渲染与渲染逻辑。服务器通过 JSON-RPC/自定义消息格式与客户端通信,支持会话管理、能力声明,以及多种传输方式,旨在为 AI 应用提供可扩展的内存、调试与脚本化能力覆盖。

AI与计算

agenr MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,负责通过 JSON-RPC 向 LLM 客户端提供上下文信息与功能,包括托管和管理 Resources(资源)、注册与执行 Tools(工具),以及定义与渲染 Prompt 模板与交互模式。服务器负责会话管理、能力声明,并支持多种传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

网页与API

MCP Agent Mail

基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,向大语言模型客户端以标准化JSON-RPC方式提供资源、工具和Prompt模板等上下文能力,并通过HTTP传输在人机/代理之间进行可审计的协作与对话管理。

AI与计算

OmniFocus MCP 服务器(FastMCP 实现)

基于 Model Context Protocol (MCP) 的 OmniFocus 后端服务器实现,提供对 OmniFocus 的资源、工具、提示模板的标准化访问,并通过 JSON-RPC 与 LLM 客户端进行通信。服务器底层通过 AppleScript 与 OmniFocus 交互,支持资源管理、工具执行、提示渲染等 MCP 服务器核心能力。

AI与计算

k13d MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,作为 Kubernetes 相关上下文信息、工具注册与渲染 Prompt 的标准化提供者,支持与 LLM 客户端通过 JSON-RPC 进行资源访问、工具调用与提示渲染,并提供多传输协议(stdio、SSE、WebSocket 等)以实现安全可扩展的上下文服务。该仓库实现了一个可运行的 MCP 服务端(以 k13d 为 MCP 服务名称),并内置工具注册与 MCP 客户端示例。

AI与计算

Ira v3 MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染的标准化上下文服务,支持 JSON-RPC 通信、会话管理,以及多传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文与能力服务。

AI与计算

OpenPencil MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管/访问、工具注册/执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC/SSE/HTTP 等传输机制与 LLM 客户端进行上下文服务与协作。

AI与计算

thesvg MCP服务器

基于 Model Context Protocol (MCP) 的后端实现,向 LLM 客户端以标准化方式提供图标资源、可注册的工具以及可渲染的 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,当前实现包含资源查询、图标获取、分类列表等核心功能。

AI与计算

Memex Flow MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供 Flow 工具的注册与执行、资源访问、Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端(如 Claude Desktop、Cursor 等)进行通信,支持 stdio/http 传输并实现多工具集成的 MCP 服务器核心功能。

AI与计算

Thinkt MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供标准化的资源、工具、Prompts 的托管与管理,并通过 JSON-RPC 方式与 LLM 客户端通信。支持多源数据接入、工具注册/执行、Prompt 模板渲染,以及对话上下文的统一上下文服务,方便 LLMs 调用外部功能与获取上下文信息。

AI与计算

Random Number MCP

基于 Model Context Protocol 的随机数工具 MCP 服务器实现,提供随机整数、随机浮点数、带权随机、打乱、取样,以及安全令牌和加密随机整数等工具,面向大模型客户端提供一致的工具调用能力和 JSON-RPC 交互。

AI与计算

Cubis Foundry MCP Server

基于 Model Context Protocol 的后端服务器,提供资源托管、工具注册与执行、Prompt 模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 STDIO、HTTP),用于为 LLM 应用提供安全、可扩展的上下文服务框架。

开发者工具

Copilot CLI IDE MCP 服务器

在 Visual Studio 中实现基于 Model Context Protocol 的后端服务器,提供资源、工具执行和提示模板等核心能力,供 Copilot CLI 通过 /ide 与 VS 集成并获得上下文与功能服务。

AI与计算

AllSource MCP 服务器(Elixir 实现)

基于 Model Context Protocol (MCP) 的服务器端实现,负责向 LLM 客户端提供资源托管、工具注册与执行、以及 Prompts 定义与渲染的能力,并通过 JSON-RPC 与客户端通信;支持多传输协议,具备会话管理与能力声明等扩展特性,适合作为 LLM 场景中的上下文服务后端。

网页与API

BeigeBox MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,暴露 BeigeBox 的工具注册表为 MCP 服务,支持 initialize、tools/list、tools/call 等方法,按 JSON-RPC 2.0 规范与 MCP 客户端通信,方便 Claude Desktop 等客户端直接调用 BeigeBox 的工具能力。

开发者工具

RoslynMcp

基于 Model Context Protocol (MCP) 的后端服务器实现,提供 Roslyn 代码理解与分析相关的资源、工具注册与执行、以及可渲染的提示模板能力,通过 JSON-RPC 与客户端通信,支持会话管理和多传输协议接入,用以向 LLM 客户端提供结构化的代码上下文与可执行功能。

网页与API

Open Web Unlocker MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供统一的资源、工具和提示模板的管理与上下文服务,面向 LLM 客户端通过 JSON-RPC 进行交互。

AI与计算

wt-tools MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,作为 wt-tools 生态的一部分,向 LLM 客户端提供标准化的上下文信息与功能接口。核心能力包括托管与管理 资源(Resources,如工作树、Ralph 循环状态、团队活动等)、注册并执行 Tools、以及定义/渲染 Prompt 模板等,所有交互通过 JSON-RPC 协议完成,并支持多种传输方式(如 STDIO)。

商业系统

now-sdk-ext-mcp

一个基于 Model Context Protocol (MCP) 的 ServiceNow 后端服务器实现,提供资源管理、工具注册与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端通信。

AI与计算

LLM Energy MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行、以及提示模板渲染等能力,向 LLM 客户端以标准化的 JSON-RPC 方式提供文档提取与上下文服务。

AI与计算

Kastell MCP 服务端

基于模型上下文协议(Model Context Protocol,MCP)的后端实现,为大语言模型(LLM)客户端提供统一的资源管理、工具注册与执行、以及可定制的 Prompt 模板渲染等功能,并通过 JSON-RPC 与客户端通信,支持多传输协议与会话管理,构建 AI 场景中的上下文服务核心。

AI与计算

duh MCP 服务器实现

基于 Model Context Protocol 的后端服务,作为 MCP 客户端的上下文信息与功能提供端,托管资源、注册并执行工具、定义并渲染 Prompt 模板,并通过 JSON-RPC 与前端或 LLM 客户端进行通信,支持多种传输协议以实现安全、可扩展的上下文服务。

AI与计算

Roo Extensions MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端服务器实现集合,向 LLM 客户端以标准化方式提供资源、工具和提示,并通过 JSON-RPC 进行通信;支持多机器协同、会话管理与多传输协议(如 STDIO、SSE、WebSocket)的可扩展上下文服务框架。仓库内含多个 MCP 服务实例及封装器,用于托管资源、注册工具、渲染Prompts,并提供运行和测试环境。

网页与API

hono-mcp-server

基于 Hono 的 MCP 服务器实现,提供统一的资源/工具管理、提示模板渲染与 JSON-RPC 通信能力,允许将 Hono API 端点暴露为 MCP 工具供 LLM 客户端调用。

AI与计算

Khoregos 模型上下文服务端

基于 Model Context Protocol 的后端实现,为大型语言模型客户端提供规范化的上下文资源、工具执行和提示渲染能力,支持与客户端通过 JSON-RPC 通信并实现会话、能力声明与多传输适配的后端服务。

AI与计算

Meridian MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,使用 FastMCP 通过标准的 JSON-RPC 方式向 LLM 客户端提供资源、工具以及提示模板等上下文能力,并实现会话管理、能力声明及多传输协议的扩展接口。该仓库同时提供注册与暴露 MCP Tool 名称与描述的功能,支持与客户端的对等互操作。

AI与计算

MemberJunction MCPServer

基于 Model Context Protocol (MCP) 的后端服务器实现,用以向 MCP 客户端提供资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的扩展能力(如 StdIO、SSE、WebSocket)。

AI与计算

CLEO MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供上下文、资源、工具和提示模板等能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,实现对资源、工具与提示的托管与渲染。

AI与计算

IBM Cloud Logs MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,面向 LLM 客户端以标准化 JSON-RPC 方式获取上下文信息与外部功能。

网页与API

LCYT MCP 服务器实现集合

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管、工具注册与执行,以及可渲染的提示/模板等能力,帮助 LLM 客户端以标准化的 JSON-RPC 方式获取上下文、调用外部功能并渲染提示。仓库内包含多种 MCP 服务器实现(如 stdio 传输与 SSE 传输)的后端实现,具备会话管理、JWT/鉴权、跨传输协议的支持,以及相应的单元测试与示例,用于将 LCYT 的字幕/前端服务与 LLM 集成。

网页与API

GenesisTools MCP Web Reader 服务

基于 Model Context Protocol(MCP)的服务器实现,提供网页内容获取与转换等工具的 MCP 服务接口,允许 LLM 客户端通过 JSON-RPC 调用工具、检索工具列表并执行网页相关任务,进而得到结构化输出和元数据。该服务明确实现了 MCP 的核心请求处理路径(如 ListTools、CallTool),并提供可运行的服务端代码,作为 MCP 服务器使用。

AI与计算

SPAWN MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,作为 LLM 客户端的后端上下文服务,提供资源/内存、工具、日志与交互能力,并通过 JSON-RPC 形式与客户端通信,支持多传输协议(如 Streamable HTTP)。

网页与API

OpenAPI MCP Server

基于 Model Context Protocol (MCP) 的后端服务,能够将 OpenAPI 定义的 REST API 端点暴露为 MCP 工具,并可选地提供 Prompts 和 Resources,支持标准的 JSON-RPC 通信、会话管理以及多种传输方式(Stdio、HTTP streaming)以供 LLM 客户端使用。

AI与计算

TuitBot MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册/执行、Prompts 定义与渲染,并通过 JSON-RPC 向 MCP 客户端提供标准化的上下文和功能接口。

AI与计算

Agoragentic MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器实现,用于向 MCP 客户端(如 Claude Desktop、VS Code、Cursor 等)暴露 Agoragentic 市场的资源、工具与提示模板,并通过 JSON-RPC 进行请求/响应与通知。该服务器具备注册、执行、查询能力等核心 MCP 功能,可为 LLM 应用提供统一的上下文与外部能力接入。

AI与计算

OWASP WrongSecrets MCP 服务端

基于 Model Context Protocol 的 MCP 服务器后端,实现通过 JSON-RPC 与客户端进行交互,向 LLM 客户端提供资源(Resources)、工具(Tools)以及提示模板(Prompts)的托管、注册、执行与渲染能力,并支持会话管理、能力声明以及多传输协议扩展。该实现不仅提供核心的 MCP 请求处理,还包含可运行的服务器组件与完整的服务逻辑。

桌面与硬件

Windows-MCP

基于 Model Context Protocol 的 MCP 服务器实现,在 Windows 上向 LLM 客户端以标准化方式暴露工具、资源与上下文信息,并通过 JSON-RPC 提供本地/远程的上下文服务与自动化能力。

网页与API

git-mcp-rs

基于 MCP 的后端服务器(Rust 实现),通过 JSON-RPC 提供对 GitHub 数据的实时访问能力,支持标签、变更日志、README、文件树等资源的管理与查询。

AI与计算

Boucle Broca MCP 服务器

Boucle 框架中基于 Model Context Protocol 的服务器实现,将 Broca 内存暴露为 MCP 服务,支持通过 JSON-RPC 与 LLM 客户端进行资源读取、工具调用等交互(当前实现以 stdio 传输为主)。

AI与计算

workspace-qdrant-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,为 LLM 客户端提供标准化的上下文服务:托管资源、注册与执行工具、以及定义渲染 Prompt 的能力;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明和多传输协议(如 Stdio、SSE、WebSocket)等扩展能力。

AI与计算

AgenC Architecture Docs MCP 服务器

基于模型上下文协议(MCP)的 AgenC 文档服务端,实现将架构文档以资源形式托管、注册可执行工具、提供可渲染的提示模板,并通过 MCP 服务器对外以标准化的 JSON-RPC 方式与客户端交互,为 LLM 客户端提供文档查询与上下文能力。该服务器属于对外提供上下文与工具的后端组件。<br/>核心能力包括:资源托管与数据访问、工具注册与执行、Prompt 模板定义与渲染,以及通过多传输协议(如 STDIO)实现的 MCP 通信。>

开发者工具

Agentic MCP 服务器

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供资源管理、工具执行与提示模板渲染等能力,支持 JSON-RPC 通信和多传输协议(如 stdio、SSE、WebSocket),实现对会话、能力声明及可扩展上下文服务的统一管理。

AI与计算

PEAC MCP 服务器实现(Node.js/TypeScript)

基于 Model Context Protocol 的后端实现,提供资源与工具的托管、Prompts 交互以及通过 JSON-RPC 在标准 I/O 流上与 LLM 客户端通信的 MCP 服务器

开发者工具

Kubani MCP 服务器端

基于 Model Context Protocol(MCP)的 Kubani 服务器端实现,提供资源与工具的暴露、MCP 的工具调用,以及对外提供的服务器能力声明,支持通过标准的 JSON-RPC 进行客户端请求与响应,适配多种传输方式(如 Stdio、SSE 等)以向 LLM 客户端提供上下文与功能服务。

AI与计算

consult-llm-mcp

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册/执行和Prompt模板渲染,并通过 JSON-RPC 与客户端通信,支持多轮对话与多传输协议(如 STDIO、SSE、WebSocket)。

AI与计算

Minishop Observability MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,为 AI 客户端提供 Prometheus 观测数据查询与诊断能力的上下文服务。当前实现通过 MCP 暴露工具(例如 prom_query、prom_targets),即可读取 Prometheus 指标、目标信息等,支持以 JSON-RPC 方式与 LLM 客户端对接,便于 AI 进行系统诊断与自愈场景的上下文访问。

开发者工具

Smithery MCP 服务器运行环境

基于 Model Context Protocol 的 MCP 服务器实现与运行框架,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等核心能力,并支持多种传输协议(如 StdIO、HTTP 等)以便为大语言模型客户端提供可扩展的上下文服务。

网页与API

NFL MCP 服务器

基于模型上下文协议的 NFL 数据后端,提供资源、工具和提示模板的标准化访问,通过 Streamable HTTP 与大语言模型客户端通信,使用 DuckDB 本地存储并支持数据查询与外部工具调用。

AI与计算

AppKit MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,聚焦资源管理、工具注册与执行,以及提示模板渲染,为大型语言模型客户端提供标准化的上下文和功能服务,支持多服务器并发、会话管理与多传输协议(如 SSE/HTTP 流、STDIO 等)通信。

AI与计算

Von MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端实现,提供面向 LLM 客户端的上下文与功能服务。核心能力包括托管与管理资源(Resources)、注册与执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端进行通信;服务器端负责会话管理、能力声明,以及支持多种传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

Code Compass MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持 StdIO 与 HTTP 两种传输模式,并使用 Qdrant 进行向量检索,为 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

Weather MCP Server with FastMCP

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,使用 FastMCP 构建并对外暴露天气查询与警报工具,支持通过 JSON-RPC 与客户端进行交互,配合 Gemini API 调用外部天气服务。该实现包含服务器端工具注册、请求处理与响应逻辑,属于完整的 MCP 服务器实现范例。

网页与API

UNITARES MCP 服务器

基于 Model Context Protocol(MCP)的后端服务实现,向大型语言模型(LLM)客户端以标准化方式提供上下文信息与功能:托管资源、注册并执行工具、定义与渲染提示模板;通过 JSON-RPC 与客户端通信,并支持多传输协议(如 STDIO、Server-Sent Events、WebSocket),实现会话管理、能力声明与可扩展的上下文服务框架。

AI与计算

superbot-mcp-server

基于 Model Context Protocol(MCP)的后端服务实现示例,提供一个可运行的 MCP 服务器,用于暴露工具并通过 JSON-RPC 与 MCP 客户端通信,底层以 Claude Code 的快速 MCP 服务端为例展开实现。该服务器可与多种前端客户端协同工作,支持工具注册、执行与提示渲染等 MCP 相关能力。

AI与计算

amdWiki MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供对 amdWiki 内容、资源、工具和提示模板的上下文化访问,并通过 JSON-RPC 进行通信与能力声明

AI与计算

Remember MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多租户、向量检索、关系图、访问控制等能力。

AI与计算

AgentSpec MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、Prompts 等上下文信息的托管与渲染,支持通过 JSON-RPC 进行请求/响应,且可通过 stdio 和 HTTP 两种传输方式与 LLM 客户端对接。

AI与计算

bknd

基于 Model Context Protocol(MCP)的后端框架,提供资源(Resources)、工具(Tools)、提示模板(Prompts)的托管与管理,并通过 JSON-RPC 与 LLM 客户端进行交互;内置 MCP 服务器实现,支持会话管理、能力声明,以及多传输协议适配,面向 AI 代理和上下文服务场景的扩展型后端解决方案。

AI与计算

VellaVeto MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并具备策略执行、审计追踪与多传输协议支持的 MCP 服务器实现。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输模式,面向高安全性、可扩展的上下文服务框架。

AI与计算

AgentChatBus

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具、提示等上下文服务,通过 JSON-RPC 与 LLM 客户端通信,支持 SSE/stdio/WebSocket 等传输,并实现会话管理、持久化存储与内置网页控制台。

AI与计算

Gleann MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,并通过 JSON-RPC 与客户端通信,内置以 stdin/stdout 形式的传输支持,便于在本地编辑器与 LLM 客户端中集成使用。

AI与计算

kemdicode-mcp

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,提供资源/工具/提示模板的管理与渲染,支持 Redis 持久化、JSON-RPC 通信以及多传输方式(如 StdIO、HTTP/WS),为 LLM 客户端提供结构化上下文服务与分布式协作能力。

AI与计算

Structured Memory Engine MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端提供资源、工具和提示模板等统一的上下文服务,支持 JSON-RPC 通信、会话管理与能力声明,并可通过多传输协议(如 Stdio/ SSE/ WebSocket)与客户端进行安全、可扩展的交互。该仓库实现了完整的 MCP 服务器端逻辑,注册工具、管理资源、定义并渲染提示模板,面向本地离线环境的上下文服务应用。

AI与计算

FOUNDATION MCP 服务器实现

基于 Model Context Protocol (MCP) 的本地后端服务器,向 LLM 客户端提供资源、工具与提示模板的统一上下文服务。通过 JSON-RPC 与客户端通信,服务器在 FOUNDATION 应用内运行,暴露本地知识图谱、工具执行能力以及可渲染的 Prompt 模板等功能,便于多样化的 LLM 交互场景。

网页与API

Google Maps MCP 服务器

基于 MCP 的后端服务器,向大型语言模型(LLM)客户端暴露 Google Maps Platform 的工具与数据接口,支持通过 JSON-RPC 协议进行资源访问、工具调用与提示渲染。

AI与计算

Servant 模型上下文服务端

基于 Model Context Protocol (MCP) 的后端实现,使用 Vert.x 架构通过 JSON-RPC 与客户端通信,提供工具注册、会话管理与能力声明等核心 MCP 功能,支持将生成的上下文和能力暴露给 LLM 客户端以实现高效的上下文服务。

AI与计算

spanner-mycli MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信;实现会话管理、能力声明,并支持多种传输方式,作为面向大语言模型的上下文服务框架。

AI与计算

SubNetree MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,作为 SubNetree 后端的一部分,统一向大型语言模型客户端提供上下文资源、可注册与执行的工具,以及可渲染的提示模板。当前实现通过标准输入输出传输(stdio)提供 MCP 服务,内部通过 ReconStore/vault 等模块暴露设备与硬件信息、服务清单等资源,并注册一组工具供 LLM 客户端查询与操作,同时以 JSON-RPC 方式进行请求/响应通信,适合与 Claude Desktop 等客户端进行集成和对接。

AI与计算

qsv Model Context Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行,以及可渲染的提示模板,按标准 JSON-RPC 方式与客户端通信,为 LLM 客户端提供统一的上下文数据与外部功能入口。

开发者工具

Sontag MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务,实现对资源、工具、提示模板的管理与渲染,并通过 JSON-RPC(基于 stdin/stdout)与 LLM 客户端进行交互,提供会话管理、工具注册与调用、以及可定制的 Prompt 渲染等能力。

开发者工具

Margin MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册/执行、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,用于向本地应用数据、功能和交互模板提供统一上下文服务。

AI与计算

Adjutant MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板等能力,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多传输通道(SSE、WebSocket、标准输入输出等)与会话管理。

AI与计算

OpenPencil MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具与提示模板的标准化访问与执行能力,支持 JSON-RPC 通信、会话管理以及多传输协议(如 Stdio、HTTP、SSE、WebSocket),用于与 LLM 客户端构建安全、可扩展的上下文服务后端。

AI与计算

UltraCode MCP 服务器端

基于 Model Context Protocol(MCP)构建的后端服务器实现,提供通过 JSON-RPC 与 LLM 客户端交互的标准化上下文服务。核心功能包括托管与访问资源(资源、数据、索引等),注册与执行工具(Tools),以及定义/渲染提示模板(Prompts),以支撑可扩展的 LLM 场景。服务器实现了基于 STDIO/命名管道等传输方式的 MCP 通信,包含会话管理、能力声明与多传输协议支持,是一个完整的 MCP 服务端实现,而非单纯的客户端示例。

AI与计算

agent-bom

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)、以及Prompt模板的注册、管理与渲染,支持 JSON-RPC 形式的客户端交互,并实现会话管理、能力声明与多传输协议(如 STDIO、SSE、WebSocket)下的 MCP 服务,以向大语言模型(LLM)客户端提供标准化的上下文和外部功能能力。

AI与计算

lm-deluge MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板的托管与渲染,并通过 JSON-RPC 与客户端进行标准化通信;包含从本地或远程 MCP 服务器加载工具的能力,以及将 MCP 请求转换为 LM-Deluge 内部请求、再将响应转换回 MCP 格式的适配器组件,支持多种传输模式,旨在为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Kahunas MCP 服务器实现

基于 Model Context Protocol (MCP) 的 Kahunas 服务端实现,将 Kahunas API 功能以 MCP 工具的形式暴露给大模型客户端,支持资源管理、工具执行、提示模板渲染等上下文服务,提供 stdio、HTTP/SSE、streamable-http 等传输方式,并通过 JSON-RPC 进行通信与会话管理。

AI与计算

Prodboard MCP 服务器实现

基于 Model Context Protocol (MCP) 的本地后端服务器,实现对资源、工具和提示模板的标准化暴露,提供 JSON-RPC 通信能力、会话管理与任务调度,供 LLM 客户端通过标准接口访问上下文信息与外部功能。

AI与计算

CodeKG MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 CodeKG 知识图谱的资源管理、工具执行及 Prompt/上下文渲染能力,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议以便与各类 AI 客户端集成。

开发者工具

Rainy Updates MCP 服务端

基于 MCP(Model Context Protocol)的本地后端服务器,实现 Resources、Tools、Prompts 的注册、托管与渲染,并通过 JSON-RPC 与客户端(如 Claude Desktop、Cursor 等 MCP 客户端)进行上下文信息和功能的访问与协作,支持多传输协议(stdio、HTTP 等)以实现对 LLM 的上下文服务。

AI与计算

MCP Serve - Model Context Protocol 后端服务器

基于 Model Context Protocol 的后端 MCP 服务器实现,提供可执行的 MCP 服务(工具、资源、提示等能力)以供 LLM 客户端访问,采用 JSON-RPC 风格进行通信并支持多种传输方式(如 Server-Sent Events)。

AI与计算

DevTeam6 MCP 服务器合集

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,并通过 MCP 标准的 JSON-RPC 风格接口与客户端通信,适合作为 LLM 的上下文与功能后端。

数据库与文件

mcp-s3

基于模型上下文协议(MCP)的后端服务器实现,提供对 S3 兼容存储的资源管理、工具注册与执行、以及输出的提示模板等能力,支持多连接、可扩展中间件/拦截器与多传输协议,面向让大语言模型客户端以标准化方式访问对象存储与相关功能。

AI与计算

MCP Midjourney MCP服务器

基于 Model Context Protocol 的后端服务器,提供对 Midjourney API 的资源、工具和提示模板的统一管理与对接,通过 JSON-RPC 与 MCP 客户端交互,支持本地 STDIO 与 HTTP 传输模式,便于在Claude、VS Code等环境中进行大语言模型驱动的创作工作。

AI与计算

attention-matters MCP 服务器实现

基于模型上下文协议(MCP)的后端服务实现,提供资源、工具、提示模板等能力,使用 JSON-RPC 与客户端通信,包含会话管理、能力声明,以及多传输协议支持的 MCP 服务器实现与服务端逻辑。代码通过 am-cli 提供的服务器入口与工具集成,达到在 LLM 客户端中以标准方式提供上下文信息与外部功能调用的目标。

AI与计算

Ripperdoc MCP 服务器端实现

基于模型上下文协议(MCP)的后端服务实现,标准化向LLM客户端暴露资源、工具与Prompt模板,支持JSON-RPC通信、会话管理与能力声明,并可通过多传输协议(如 Stdio、SSE、WebSocket)提供上下文服务与扩展能力。

AI与计算

OpenFang MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管与访问、工具注册与执行、以及提示模板的定义与渲染,支持 JSON-RPC 通信和多传输适配的上下文服务框架。

AI与计算

MCP 服务器合集(Model Context Protocol 实现)

基于 Model Context Protocol 的多语言 MCP 服务器实现集合,提供资源与工具的管理、JSON-RPC 风格请求响应、SSE 推送、健康与监控等核心能力,支持 Go、Python 等语言实现,适合与大语言模型客户端进行模态化上下文服务交互。

AI与计算

Chronicle Memory MCP 服务器

基于 MCP 协议实现的本地内存管理服务器,用于存储、检索和管理长期记忆,供 LLM 客户端通过 JSON-RPC 调用访问和扩展上下文信息。

开发者工具

Azure Pricing MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,聚焦 Azure Retail Pricing,提供资源管理、工具注册与执行、以及提示模板渲染等能力。通过 JSON-RPC 与 MCP 客户端通信,向 LLM 客户端提供 Azure 定价相关的上下文信息和功能,支持会话管理、能力声明与多种传输协议(如 STDIO、SSE/HTTP)。

AI与计算

DivineOS MCP Server

DivineOS 的 MCP 服务器实现,提供资源、工具、提示模板等通过 JSON-RPC 的方式对外服务,支持多传输协议(stdio、HTTP),并内置完整的工具集供 LLM 客户端调用。

AI与计算

Cytoscape MCP 服务器

基于模型上下文协议(MCP)的嵌入式后端服务器,部署在 Cytoscape Desktop 中,为大语言模型客户端提供资源访问、工具执行与 Prompt 相关的上下文服务,采用 JSON-RPC 风格通信并支持流式传输。

开发者工具

Magpie MCP 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源、工具和 Prompt 的注册、托管与渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持多种执行环境用于 AI 代理的上下文服务。

AI与计算

MCP Boilerplate 服务器(Model Context Protocol 后端)

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册/执行、资源接口、日志通知和 SSE 传输等能力,供大语言模型客户端以标准化上下文服务进行上下文获取、工具执行和提示模板渲染等任务。

AI与计算

SecureYeoman MCP 服务器

基于 Model Context Protocol 的企业级 MCP 服务器实现,向 LLM 客户端提供资源、工具和提示等上下文信息,通过 JSON-RPC 进行通信,支持多传输通道(stdio、SSE、WebSocket)以实现高效的上下文服务。该仓库内包含完整的 MCP 服务器实现及相关 API、传输、会话与安全机制等模块。

网页与API

Stacklume MCP Server

基于 Model Context Protocol (MCP) 的 JSON-RPC MCP 服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)的托管与管理,并通过统一的 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输场景。仓库中包含用于 MCP 校验的工具定义、JSON-RPC 路由实现,以及在 Next.js 环境下的服务器端实现代码。该实现不仅提供客户端调用示例,还实现了服务端的鉴权、能力声明与请求分发等核心功能。<div align="center">(MCP 服务器核心功能在 src/app/api/mcp/route.ts,可处理 initialize、tools/list、tools/call、ping 等方法并返回标准 JSON-RPC 响应。)</div>

网页与API

AnyAPI-MCP-Server

基于 Model Context Protocol 的通用后端服务器,将任意 REST/OpenAPI 规格暴露给 AI 助手,提供资源管理、工具注册、以及可定制的提示模板等能力,并通过 JSON-RPC 与客户端通信,支持多种传输与安全特性。

AI与计算

NovaNet MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,提供资源、工具和提示模板的托管与管理,通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互;底层与 Neo4j 数据库协同,支持多工具执行、上下文组装和生成提示的完整后端服务。

开发者工具

TurboVault MCP 服务器

基于 Model Context Protocol (MCP) 的高性能后端,将 Obsidian 符合语义的笔记库暴露为可被大语言模型访问的上下文服务,核心职责包括托管资源、注册与执行工具、以及定义与渲染 Prompt 模板,支持多 Vault 管理与多传输协议。实现了标准化的 JSON-RPC 通信,便于 LLM 客户端进行读取、调用外部工具、以及获取 Prompts 的能力声明与渲染。

AI与计算

openstudio-mcp

基于 Model Context Protocol (MCP) 的 OpenStudio 后端服务器,向大型语言模型 (LLM) 客户端提供标准化的上下文信息与功能。核心职责包括托管和管理 OpenStudio 资源(如模型、设计日、结果等)、注册和执行工具(Tools,供 LLM 调用外部功能)、定义与渲染 Prompt 模板,并通过 JSON-RPC 与客户端通信实现会话管理、能力声明与多传输协议支持(如标准输入输出、服务器发送事件、WebSocket 等)。通过一个内存中的模型管理器维护模型状态,运行结果与跑步(Runs)输出存放在 /runs,提供安全、可扩展的后端服务框架。该实现面向与 OpenStudio/EnergyPlus 的集成与自动化工作流场景,方便将 LLM 的推理过程与能源模型操作结合起来。

AI与计算

AFS MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Resources、Tools 与 Prompts 的标准化管理与访问,并通过 JSON-RPC 与客户端进行通信,支持多传输方式以提供安全、可扩展的上下文服务。

开发者工具

SmartLead MCP Server

基于 Model Context Protocol (MCP) 的服务端实现,将 SmartLead API 以 MCP 工具形式暴露给 LLM 客户端,支持资源管理、工具注册与执行、提示模板渲染等核心能力,且通过 JSON-RPC 方式与客户端通信,具备会话管理、能力声明及多传输协议兼容(如 StdIO)等特性。

AI与计算

GNO MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,为本地知识引擎提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议与会话管理,适用于离线或私有环境的上下文服务场景。

AI与计算

Code-Index-MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供向 LLM 客户端按标准化方式暴露资源、工具与 Prompt 模板的能力。服务器通过 JSON-RPC 风格的协议与客户端交互,支持本地代码索引、插件化语言工具、语义检索以及可扩展的上下文服务,适用于在本地环境或容器中为 AI 助手提供代码理解与上下文数据。

AI与计算

Seren MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,能够托管资源、注册工具、定义和渲染 Prompt,支持 JSON-RPC 通信,具备本地与嵌入式 MCP 服务器的管理能力。

网页与API

Tavily MCP 服务端实现(多传输、工具与 API 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册、API 访问、Prompts/输出渲染能力,并通过 JSON-RPC 与 LLM 客户端通信,支持 STDIO 与 SSE 等传输方式,以为大语言模型提供标准化的上下文与外部功能访问。

AI与计算

enjoy-mcp-服务器

基于模型上下文协议(MCP)的后端服务实现,提供对 Enjoy 游戏的工具管理与查询能力,通过 JSON-RPC 形式与 MCP 客户端(如 Claude)进行交互,核心功能聚焦工具注册与调用,支持通过标准化接口获取项目状态、排行榜、玩家信息、GitHub 活动等数据。该实现使用 Stdio 传输,适合嵌入到 Claude Code/桌面端等工作流中进行上下文服务接入。

开发者工具

Imagician 图像编辑 MCP 服务器

基于 Model Context Protocol 的图像编辑 MCP 服务器,提供工具集成、任务执行与插件化扩展,通过 JSON-RPC 与 LLM 客户端进行交互,支持在 Minecraft 内容工作流中对纹理和图片进行实时处理。

AI与计算

Docketeer MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,暴露 Docketeer 的工具注册表给 MCP 客户端,以便读取工具信息、执行工具并记录审计日志,支持通过 JSON-RPC 与客户端进行交互。

AI与计算

Tiburcio MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板等上下文能力,采用 JSON-RPC 与客户端通信,支持多种传输方式(stdio、HTTP/SSE 等),并实现了 10 个 MCP 工具以便 Claude Code 进行高效、上下文化的回答与操作。

AI与计算

Overlord MCP 服务端集成

Overlord 提供基于 Model Context Protocol (MCP) 的服务器端实现,用于向 LLM 客户端以标准化的上下文服务方式暴露资源与工具、执行工具、以及可渲染的提示模板,并通过 JSON-RPC/Socket.IO 等协议进行通信,同时对 MCP 子服务器进行托管、管理与自动重连。

AI与计算

Marionette MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示的托管与管理,通过 JSON-RPC 与 LLM 客户端通信;整合 Claude Code、WebSocket 通信、实时会话监控与 API 代理等组件,实现可扩展的上下文服务框架。

开发者工具

Harness MCP Server 2.0

基于 Model Context Protocol 的后端服务器实现,通过 JSON-RPC 规范向 LLM 客户端提供 Harness 平台的资源、工具与提示模板等上下文服务,支持多传输协议与会话管理,具备完整的工具注册、资源注册与提示模板渲染能力。

AI与计算

Pipulate MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器,为本地 AI 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信、以及多传输协议信息(如 STDIN/STDOUT、SSE、WebSocket),实现会话管理、能力声明,并提供插件化的工作流与工具执行能力。

AI与计算

Sellf MCP 服务器( Claude Desktop 版本)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 定义与渲染,并通过 JSON-RPC 与客户端通信,支持多种传输协议,用以向 LLM 客户端提供一致的上下文与功能。若干资源、工具和提示可通过 MCP 服务器集中管理与渲染,适用于 Claude Desktop 等集成场景。

桌面与硬件

MCP服务器-os-level桌面自动化后端

基于 Model Context Protocol (MCP) 的桌面UI自动化后端,提供 JSON-RPC 接口用于向LLM客户端暴露资源管理、工具注册/执行与提示模板渲染等能力。核心实现包含在 macOS 上的无头/交互式Accessibility引擎、跨平台框架占位,以及对MCP初始化、工具执行等请求的处理与响应。

开发者工具

jCodeMunch MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务端实现,提供对资源、工具、提示模板的托管与渲染,使用 JSON-RPC 与客户端通信,默认通过标准输入输出进行交互,支持多传输通道的扩展能力,为大模型客户端提供高效的上下文与功能服务。

AI与计算

OpenAI SDK Knowledge MCP 服务器

基于 MCP 标准的后端服务器,提供资源、工具与提示模板的注册、读取与执行,并通过 JSON-RPC 与客户端进行通信,支持在 Cloudflare Worker 环境中运行,面向 LLM 客户端提供标准化的上下文与能力服务。

桌面与硬件

ESP32MCPServer

基于 Model Context Protocol 的 MCP 服务器,运行在 ESP32(以及 Nordic nRF52840 的传感器端模式),通过 WebSocket/JSON-RPC 提供资源管理、工具注册与调用、以及可渲染的 Prompt 模板等能力,面向 LLM 客户端实现上下文与功能服务。

AI与计算

Claude Code Docs MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供用于 Claude Code 文档查询的工具集,并通过 JSON-RPC 风格请求/响应与客户端进行交互,具备可运行的服务端能力和简单的资源/工具暴露能力。

AI与计算

JFL Context MCP 服务器套件

基于 Model Context Protocol 的后端实现集合,提供用于 LLM 的上下文资源管理、工具执行与提示模板渲染的 MCP 服务器。仓库中包含多个独立的 MCP 服务器实现(如 Context Hub、Service Registry、Service MCP 等),通过 JSON-RPC 对外暴露工具集和接口,支持与 Claude Code、Clawdbot 等 MCP 客户端进行交互,以及与 Context Hub 的交互与协作。

网页与API

JustOneAPI MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,暴露 JustOneAPI 的工具与资源,向大型语言模型客户端提供统一的上下文访问入口,并原样返回上游 API 的原始JSON数据以保持数据保真。

AI与计算

统一 MCP 服务器:Qdrant/Neo4j/Crawl4AI 集成

基于 Model Context Protocol (MCP) 的后端服务器实现,整合向量检索、知识图谱与网页智能等能力,向大型语言模型客户端以标准化的 JSON-RPC 提供资源、工具和提示模板等上下文服务,包含会话管理、能力声明、鉴权与多种传输协议的支持。

数据库与文件

MariaDB-Guard-RO-MCP

基于 PHP 实现的 MCP(Model Context Protocol)服务器,提供对 MariaDB/MySQL 的只读上下文服务、工具调用与查询审计,支持通过 JSON-RPC 与 LLM 客户端交互。

AI与计算

Software Factory MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行、Prompt 模板渲染等核心 MCP 功能,供 LLM 客户端通过 JSON-RPC 进行资源访问、工具调用与提示渲染等操作。

AI与计算

Atlas MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多传输协议(如 Stdio、SSE、WebSocket)。

商业系统

Factorial MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供与 Factorial HR API 的集成,向大语言模型客户端暴露资源、工具与提示模板,并通过 JSON-RPC(STDIO/HTTP等传输)进行标准化通信与会话管理。

网页与API

vobase MCP 服务器

基于 Model Context Protocol 的后端实现,提供对资源、工具与 Prompt 的标准化管理与读取,并通过 JSON-RPC 与 LLM 客户端进行交互,以实现可扩展的上下文服务。

网页与API

crawl4ai-mcp-server

基于 Model Context Protocol (MCP) 的后端服务器实现,通过 JSON-RPC 提供资源管理、工具调用和爬取功能,并以 STDIO 方式运行的 MCP 服务端,用于向 LLM 客户端提供网页抓取与站点爬取能力。

AI与计算

Pierre MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板的标准化管理与 JSON-RPC 通信,支持多传输协议、会话管理与权限控制,为大型语言模型提供可扩展的上下文服务。

AI与计算

Harmonica MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,暴露 Harmonica 会话管理、数据查询与 AI 助手工具给 LLM 客户端,使用 JSON-RPC 进行通信,并支持多种传输方式(如 Stdio)以提供可扩展的上下文服务。

网页与API

Yandex Wiki MCP 服务器

基于 MCP 架构的后端服务器,为大语言模型(LLM)客户端提供对 Yandex Wiki 的页面读取与写入、以及相关工具的访问与缓存支持,通过 JSON-RPC 提供统一接口,支持读写模式并可选 Redis 缓存。

网页与API

PEAC MCP 服务器实现(归档版)

基于 Model Context Protocol (MCP) 的后端实现,提供通过 JSON-RPC 方式与客户端通信的 MCP 服务器能力,核心职责包括托管资源、注册与执行工具、以及定义与渲染提示模板,支持跨组织的上下文服务与证据管理。

AI与计算

Foundry Docs MCP Server

基于模型上下文协议(MCP)的后端服务器,为大语言模型客户端提供 Foundry 文档的上下文、检索、工具执行和 Prompt 渲染等能力,并通过 JSON-RPC 与客户端进行通信,实现资源管理、工具注册/执行和 Prompt 定义的标准化后端服务。

数据库与文件

MariaDB-Guard-RO-MCP

基于 Model Context Protocol 的 MCP 服务器实现,使用 PHP 搭建,提供对 MariaDB/MySQL 的只读上下文服务、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端通信以支持 LLM 的上下文获取与外部功能调用。

AI与计算

Claude Research Bibliography MCP Server Suite

基于 Model Context Protocol (MCP) 的后端服务器集合,提供多源学术检索(OpenAlex、Scopus、Web of Science)与资源/工具/提示模板的统一管理与渲染。通过 JSON-RPC 风格的 MCP 规范,与客户端进行资源读取、工具调用和提示渲染等交互,支持标准传输(当前实现为 stdio),并涵盖会话管理、能力声明以及跨源结果聚合与去重等核心能力,便于在 LLM 端构建可扩展的上下文服务。

AI与计算

Rainy Updates 本地模型上下文服务器

基于 Model Context Protocol 的本地后端服务器,向大语言模型客户端提供统一的资源管理、工具注册与执行、以及可定制的提示模板渲染,全部通过 JSON-RPC 与客户端通信,支持多种传输通道以实现安全、可扩展的上下文服务。

AI与计算

Webhooks-CC MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供标准化的资源、工具和提示模板管理能力,供大语言模型(LLM)客户端通过 JSON-RPC 调用,实现对 Webhooks 场景的上下文服务、工具执行与数据访问。该仓库包含可运行的 MCP 服务器实现及对应工具集,用于将 AI 助手接入 webhooks 平台的资源与功能。

桌面与硬件

Kunobi MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,用于将 Kunobi 桌面应用的多变体环境、可用工具、资源与提示以标准化的 MCP 形式暴露给 LLM 客户端,支持多变体自动发现、动态注册与工具调用等能力。

AI与计算

HowCanI MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,为 LLM 客户端提供标准化的上下文与功能服务,核心包括资源(Items/Tags/Users)的托管、工具(如搜索、获取、更新、创建等)注册与执行,以及通过 MCP JSON-RPC 与客户端通信的能力,支持 HTTP 传输并具备会话管理与能力声明。

网页与API

MCP Hangar 服务端实现

基于 Model Context Protocol 的后端服务器实现,向大语言模型客户端提供资源管理、工具注册与执行、以及可定制的 Prompt 模板渲染等上下文服务;通过 JSON-RPC 进行通信,支持会话管理、能力声明、并发执行、热加载与观测等特性,具备完整的服务端框架与扩展能力。

AI与计算

token-compressor MCP 服务器

基于 Model Context Protocol 的本地提示压缩服务端,暴露 compress_prompt 工具,使用 Ollama 的 llama3.2:1b 进行文本压缩并通过 nomic-embed-text 进行嵌入验证,向 MCP 客户端提供压缩文本及相关元信息。

AI与计算

Chronicle Memory MCP Server

基于 MCP(Model Context Protocol)的内存管理服务器,实现对 Falcon AI Agent 的记忆资源的持久化管理、工具注册与执行、以及简易的上下文服务能力,通过 JSON-RPC 与客户端进行通信。

AI与计算

Ahma HTTP Bridge for MCP

基于 MCP(Model Context Protocol)的 HTTP 流式后端服务,通过逐会话创建子进程来实现沙箱化上下文和工具调用的安全隔离,支持资源/工具的托管,以及基于 Prompts 的交互模板渲染;客户端通过 JSON-RPC 与桥接服务通信,桥接再与底层 MCP 子进程对接,采用 POST 请求+ SSE 推送的流式传输模式。该实现覆盖初始化握手、根目录(roots/list)协商、沙箱锁定以及会话终止等核心 MCP 语义,并提供多种传输模式(STDIO、HTTP 桥接、SSE 等)以支持多样化的 LLM 客户端场景。<br/>注:核心 MCP 服务器组件由 ahma_mcp 子系统提供,ahma_http_bridge 负责作为“服务器端”的桥接实现,连接客户端与 MCP 子进程。

AI与计算

QueryWeaver MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,作为 QueryWeaver 的 MCP 服务器,通过标准化的 MCP HTTP 面向 LLM 客户端提供资源托管、工具注册与执行,以及 Prompt 模板渲染等上下文服务,并通过 JSON-RPC 进行通信与会话管理。

AI与计算

VibeLint MCP 服务端

一个基于 Model Context Protocol(MCP)的后端服务,提供安全审计与自动修复的代码上下文服务,通过 MCP 与客户端进行 JSON-RPC 通信。

AI与计算

Context Vault MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与调用、以及提示模板渲染等核心功能,通过 JSON-RPC 与大语言模型客户端进行标准化上下文服务交互,支持本地文件存储+向量检索等能力。

AI与计算

mcp-score

基于 Model Context Protocol (MCP) 的音乐分数生成与编辑后端服务器,提供资源/工具/提示模板的管理与执行,并通过 MuseScore、Dorico、Sibelius 的远程控制桥接与 LLM 进行标准化的上下文服务交互。

AI与计算

Claude Sidecar MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,实现标准化的上下文提供与外部功能调用能力。该服务器托管资源与工具,定义并渲染 Prompt 模板,支持 JSON-RPC 通信,提供会话管理与跨传输协议(如 StdIO、SSE、WebSocket)等能力,专为 Claude Desktop/Cowork 等客户端提供并行化的上下文服务。

AI与计算

Commandable MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供资源管理、工具注册与执行、以及可定制的 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信并可通过 STDIO、HTTP、SSE、WebSocket 等传输协议接入客户端。

AI与计算

CodeGraphContext MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行以及可渲染的 Prompt 模板,旨在以标准化的 JSON-RPC 方式向 AI 客户端提供代码上下文与功能支持,并可通过多种传输协议与会话管理实现安全、可扩展的 MCP 服务。

AI与计算

Chibi MCP Bridge 服务器端实现

基于 Model Context Protocol (MCP) 的服务器端实现,作为 MCP 客户端与后端 MCP 服务之间的桥接层,提供对 Tools 的发现、调用和输入/输出模式的支持,并通过 JSON-RPC 与客户端通信,支持本地 STDIO 与 Streamable HTTP 等传输方式的接入。

AI与计算

dartwork-mpl 模型上下文协议服务端

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器,向大模型客户端以标准化方式提供上下文信息与功能。核心能力包括托管与管理资源、注册并执行工具、定义与渲染提示模板;通过 JSON-RPC 实现与客户端的通信,支持会话管理与多传输通道(如 StdIO、SSE、WebSocket),并提供安全、可扩展的上下文服务。

AI与计算

Canopy MCP 服务器

基于 Canopy 的 MCP(Model Context Protocol)后端实现,提供资源、工具与提示模板等上下文服务,并通过 STDIO/HTTP 等传输协议与 LLM 客户端进行 JSON-RPC 通信与协作。

网页与API

Browser Bridge MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,作为后端服务向 LLM 客户端提供标准化的上下文信息与功能。核心职责包括托管与管理 资源(Resource)、注册与执行 工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 MCP 规范的协议与客户端进行 JSON-RPC 风格的请求/响应交互,支持会话管理、能力声明,以及对接 Core/扩展组件的桥接能力。

AI与计算

GoPeak-Godot-MCP-Server

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,向 LLM 客户端以标准化方式暴露 Godot 的资源、工具与 prompts,并提供多引擎执行(Headless、Runtime、LSP、DAP)以及会话管理等能力。

AI与计算

Azure Voice Assistant MCP Server

基于 MCP 协议的异步后端实现,为 LLM 客户端提供 Azure AI Foundry 的模型调用、资源管理与提示渲染能力,并通过标准化的 JSON-RPC 交互实现工具执行与会话管理。

AI与计算

Voyage AI MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,作为后端上下文服务提供者,统一托管资源(Resources)、注册与执行 Tools、以及渲染 Prompt 模板;通过 JSON-RPC 与客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket),实现会话管理和能力声明,帮助 LLM 客户端以标准化方式获取上下文、外部功能和提示模板。

AI与计算

SnapTray MCP 服务端

基于 Model Context Protocol (MCP) 的本地 MCP 服务器集成于 SnapTray 主应用,向本地的 LLM 客户端提供资源、工具与 Prompt 模板的统一访问与执行能力,并通过本地 HTTP 的 JSON-RPC 进行通信。

网页与API

AgentSpec MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和 Prompt 的标准化管理,并通过 JSON-RPC 与客户端通信;支持 stdio 与 HTTP 传输,具备会话管理、能力声明和多传输协议扩展能力,旨在为 LLM 应用提供安全、可扩展的上下文服务框架。

开发者工具

Graph-It-Live MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,Graph-It-Live 提供完整的资源管理、工具注册与执行、以及可渲染的 Prompt 模板,面向 LLM 客户端以 JSON-RPC 方式提供依赖分析、符号图、调用图等能力,并支持多传输协议实现安全、可扩展的上下文服务。

网页与API

Kryfto MCP Server

基于 Model Context Protocol (MCP) 的服务器端实现,作为后端后置服务提供对资源、工具与提示模板的管理和执行能力。通过 JSON-RPC 与 LLM 客户端通信,统一托管资源、注册并执行工具、渲染并提供 Prompt 模板,支持多工具组合及可扩展的上下文服务能力,并内置监控、信任评估与鲁棒的错误处理。

AI与计算

A2A Registry MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供对 AI 代理目录的发现、检索、健康与统计等信息的标准化访问接口,支持多工具方法以便 LLM 客户端查询与集成。

AI与计算

AIquila MCP 服务端

基于 Model Context Protocol(MCP)实现的后端服务器,为大型语言模型客户端提供标准化的上下文服务,包含资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持标准化传输通道(如 STDIO、HTTP)。

AI与计算

Agoragentic MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,向 MCP 客户端提供 Agoragentic 市场的能力、资源、提示等上下文服务与执行能力,并通过 JSON-RPC 与客户端通信。

AI与计算

PKS MCP 服务端(Model Context Protocol 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具暴露与提示模板渲染等核心能力,通过 JSON-RPC 与 AI 客户端通信,支持多传输模式,具备会话管理与能力协商能力。

AI与计算

ArchGuard MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,作为后端为大语言模型客户端提供标准化的上下文信息、资源数据、工具执行能力以及自定义提示模板等功能,支持 JSON-RPC 通信、会话管理和多种传输协议。

AI与计算

llms-full-unbind MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,利用 llms-full-unbind 解析的 llms-full.txt 文件提供文档读取与搜索等工具,向 LLM 客户端以标准化的 JSON-RPC 形式暴露能力,并通过 stdio 传输等多种通道进行通信。

网页与API

JamJet MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行,以及提示模板渲染,并通过 JSON-RPC 与客户端进行标准化交互。

AI与计算

RuVector MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 RuVector 生态的一部分,负责通过标准化的 JSON-RPC 向 LLM 客户端提供上下文信息和功能。核心职责包括托管与管理 Resources(资源数据访问)、注册并执行 Tools(工具调用)、定义与渲染 Prompts(提示模板),并支持多传输协议(如 Stdio、SSE、WebSocket)。服务器端负责会话管理、能力声明与扩展性配置,适配多种客户端场景,提供安全、可扩展的上下文服务框架,支持与 RuVector 其他组件的无缝对接。

网页与API

Charles MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,将 Charles Proxy 的上下文数据以资源、工具与提示模板等形式暴露给 LLM 客户端,通过 JSON-RPC 进行通信,支持实时 live 捕获、历史快照、分析与分组等功能,构建一个可扩展的上下文服务框架。

AI与计算

AFS MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 标准向 MCP 客户端提供 Resources、Tools 与 Prompts 的注册、查询、执行与渲染等核心能力,并支持会话管理与多传输协议接入。

AI与计算

Alaya MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,使用 Rust 编写并通过 JSON-RPC 与 MCP 客户端通信,提供记忆资源管理、工具注册与执行、以及可定制的提示/交互模板渲染能力;支持自带的内存后端、嵌入向量与混合检索、以及可选的 LLM 自动提取与知识 consolidating 流程,具备会话管理与多种传输形态的扩展能力。

AI与计算

NotebookLM MCP CLI 与服务器端实现

基于 Model Context Protocol (MCP) 的 NotebookLM 后端服务器实现,提供资源、工具和提示的标准化管理与渲染,支持通过 JSON-RPC 与 LLM 客户端通信,具备会话管理、能力声明以及对多种传输协议的支持,适用于将 NotebookLM 的上下文和功能暴露给强大的 AI 助手。

AI与计算

Hydra 基于模型上下文协议的 MCP 服务器实现

一个将 Model Context Protocol (MCP) 服务器能力嵌入 Hydra 守护进程的实现,用于向本地 LLM 客户端提供资源管理、工具执行和提示模板渲染等能力,并通过 HTTP/SSE 传输进行 JSON-RPC 交互。

网页与API

OpenFang MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现:提供资源托管、工具注册/执行、以及提示模板的定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行标准化上下文服务交互(资源访问、工具调用、Prompts 获取/渲染等),支持多传输协议以实现安全、可扩展的上下文服务框架。

AI与计算

Geepers MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示等标准接口,并通过 JSON-RPC 风格的通信为 LLM 客户端提供上下文服务与多代理协作能力。

开发者工具

pūrmemo MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、及 Prompt 模板渲染,通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明与多传输协议(如 STDIO、SSE、WebSocket)的上下文服务框架。

AI与计算

Prism MCP 服务器(基于 Model Context Protocol 的后端服务)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板等的注册、管理与执行能力,并通过 JSON-RPC 形式对接 LLM 客户端,支持会话管理、能力声明以及多传输通道(如 HTTP、StdIO、SSE/WebSocket 之类扩展)的上下文服务框架。

AI与计算

CodeKG MCP 服务器

基于 CodeKG 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端以标准化 JSON-RPC 方式提供资源数据、工具调用与提示模板等上下文服务,并实现会话管理、能力声明与多传输协议支持(如 STDIO、SSE、WebSocket)。

AI与计算

AppKit MCP 服务器实现

基于 Model Context Protocol 的服务器端实现,提供面向大语言模型客户端的资源、工具和提示模板等上下文服务。仓库内包含多个并行的 MCP 服务端模块(如用户管理、图表、BPMN、图像生成等),通过 JSON-RPC 形式与客户端通信并支持多种传输通道(如 SSE、WebSocket/流式传输等)。该实现集成于 Reflex 应用之中,提供会话管理、能力声明和安全特性,能够作为后端 MCP 服务提供者供 LLM 客户端调用和上下文获取。

开发者工具

Agent Reach MCP Server

基于模型上下文协议(MCP)的服务端实现,提供一个可运行的服务器用来暴露 Agent Reach 的状态与功能给 MCP 客户端,通过 JSON-RPC 方式进行调用与响应。

网页与API

maintenant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,实现资源(Resources)、工具(Tools)和提示模板(Prompts)的管理与渲染,提供标准化的 JSON-RPC 交互给 LLM 客户端,并支持多种传输方式(stdio、Streamable HTTP、SSE/WebSocket 等)以及 OAuth2 安全认证,是一个面向 MCP 客户端的后端服务实现。

AI与计算

tilth MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Tilth 的 MCP 服务端,通过 JSON-RPC 在标准输入输出(stdio)上与客户端通信,向 LLM 客户端提供资源、工具注册与执行、以及提示模板的管理与渲染等能力,支持会话管理、能力声明以及多种工具接口

网页与API

DataPulse MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,用于向 LLM 客户端以标准化方式暴露资源、工具与提示模板;通过 JSON-RPC 与客户端通信,内置本地 MCP 服务与可选的 FastMCP 适配,支持通过标准输入输出(stdio)方式作为 MCP 服务器运行。

AI与计算

clude-mcp

基于 Model Context Protocol (MCP) 的自托管后端服务器实现,提供资源、工具、提示等标准化接口,并通过 JSON-RPC(stdin/stdout)与 LLM 客户端交互,支持内存存储与检索、知识图谱链接、提示渲染,以及本地内存浏览器等扩展功能。

网页与API

Fiddler-MCP 服务器端实现

基于 Model Context Protocol 的后端服务,提供资源管理、工具执行和提示模板等能力,通过 JSON-RPC 与 LLM 客户端交互,实现对 Fiddler 实时 traffic 的 MCP 封装与分析。

AI与计算

Socratic-MCP Study-Speak Server

基于 MCP 协议的后端服务,暴露文本转语音(TTS)功能为可通过 JSON-RPC 调用的工具,供大语言模型客户端在对话中按需进行语音输出与会话管理扩展。该实现提供一个注册的 speak 工具,通过标准 MCP 机制接收文本输入并返回语音执行结果或错误信息。

AI与计算

EGOS MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,作为后端上下文服务中枢,托管资源、注册并执行工具、渲染可自定义的 Prompt 模板,并通过 JSON-RPC 提供统一的上下文服务接口给 LLM 客户端。

AI与计算

DotAgents WhatsApp MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供通过 MCP 客户端进行 WhatsApp 消息收发、工具执行和对话上下文管理的能力,支持多种传输方式及会话持久化。

AI与计算

Sentinel AI MCP 服务器实现

基于模型上下文协议(MCP)的后端服务,向 MCP 客户端提供资源、工具注册/执行以及提示模板渲染等上下文服务,通过 JSON-RPC 与客户端通信,支持会话管理和多种传输模式以支撑 LLM 应用的安全上下文服务。

网页与API

Playwright Browser Skill MCP Server

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供可运行的浏览器自动化技能服务,通过 JSON-RPC 与客户端通信,注册并执行工具、管理资源与提示模板,供 LLM 客户端调用实现浏览器操作。

开发者工具

optopsy-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,用于对选项策略进行筛选、回测仿真、数据加载与工具执行,并通过 JSON-RPC 的 MCP 协议与客户端交互,提供资源管理、工具注册/执行、以及可渲染的 Prompt 模板支持。

AI与计算

Hydra MCP 服务器

基于 Hydra 的 MCP 服务器实现,提供资源、工具与 Prompt 的标准化上下文服务,并通过 JSON-RPC 与客户端通信以支持多轮对话与上下文管理。

开发者工具

gdcli MCP 服务器

基于 Model Context Protocol(MCP)的 JSON-RPC 服务器实现,作为 gdcli 的内置组件,向 LLM 客户端暴露 Godot 项目的资源、工具、以及提示模板等能力,并通过标准输入输出进行 JSON-RPC 通信,支持以 stdio 传输的 MCP 客户端交互模式。该实现不仅提供运行在服务器端的 JSON-RPC 处理,还将现有的 gdcli 命令(如 doctor、scene、node、run 等)封装为 MCP 工具,供客户端远程注册和执行。

AI与计算

Sardis MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,向大型语言模型客户端提供标准化的上下文资源、工具执行和可渲染的提示模板,采用 JSON-RPC 的通信方式,并支持多传输协议接入与会话管理,旨在为 LLM 应用提供安全、可扩展的上下文服务框架。

网页与API

Homelab MCP 服务器集合

基于 Model Context Protocol (MCP) 的多组件后端服务集合,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源、工具与 Prompts 等上下文信息与功能,支持统一或分布式部署,用于对家庭/本地网络环境的上下文管理、监控与自动化集成。

网页与API

European Parliament MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对欧洲议会开放数据的结构化上下文访问、工具注册与调用、以及可渲染的提示模板,客户端通过 JSON-RPC 与之通信,支持多种传输方式并具备会话管理与安全合规能力。

网页与API

MCP Services

基于模型上下文协定(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及提示模板渲染等核心能力,并通过 JSON-RPC/SSE 提供给 LLM 客户端使用的上下文服务与功能调用入口,同时包含 REST API、权限与计费等完整实现。

网页与API

simple_mcp_server

基于 Model Context Protocol 的简单 MCP 服务器,提供对 Star Wars API 的资源与工具的暴露与管理,便于通过标准化的 MCP 客户端进行上下文服务调用。

AI与计算

Tim 模型上下文协议服务器

基于 Model Context Protocol 的后端服务器实现,向语言模型客户端提供标准化的上下文信息和功能。核心能力包括托管与访问资源、注册与执行工具、定义与渲染 Prompt 模板;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输协议(stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

SitecoreMCP MCP服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供 Sitecore GraphQL 的资源、工具与提示模板,以 JSON-RPC 形式通过标准传输(如 STDIO)与 LLM 客户端通信,支持对 Sitecore 内容上下文的管理与外部功能调用。

AI与计算

pair-review MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向大语言模型客户端提供规范化的上下文服务,包括资源管理、工具注册与执行,以及可定制的提示模板渲染;通过 JSON-RPC 进行通信,支持多种传输模式(如 stdio、HTTP/Streamable HTTP),并实现会话管理与能力声明,适用于在本地搭建的 MCP 服务端场景。

开发者工具

Forge-MCP Server 集成套件

基于 Model Context Protocol (MCP) 的多引擎后端服务器集合,核心职责是通过 JSON-RPC 2.0 与 LLM 客户端通信,提供资源托管与数据访问、注册和执行工具、定义与渲染 Prompt 模板等能力,支持多种传输形态并实现会话与能力声明,适合将 AI 客户端接入到各种构建、测试、环境管理等后端服务场景。

AI与计算

Coding Agent Hub MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,向 LLM 客户端以标准化方式提供资源、工具与 Prompts,并通过 JSON-RPC 进行通信,支持会话管理、插件运行时以及多传输协议。

AI与计算

Super Turtle MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端提供工具、资源和 Prompt 渲染等上下文能力。仓库实现了两个 MCP 服务器(send-turtle 与 bot-control),通过 JSON-RPC 草案标准与客户端通信,并使用文件系统 IPC 机制协调后台任务与 Claude Telegram Bot 的交互。

AI与计算

agents-radar MCP 服务器实现(Cloudflare Worker)

基于 Model Context Protocol 的 MCP 服务器实现,作为 Cloudflare Worker 提供对 agents-radar 摘要数据的标准化访问接口,支持 list、get、get_latest、search 等工具的 JSON-RPC 调用,以便 MCP 客户端查询最新报告、历史报告及关键关键字搜索。

AI与计算

AI-Investment-Advisor MCP Server

基于 Model Context Protocol(MCP)的后端服务器,向 LLM 客户端提供资源、工具与 Prompt 模板等统一上下文服务,并通过 JSON-RPC 与客户端进行请求/响应交互,附带会话管理与能力声明,支持多传输协议以实现安全、可扩展的上下文服务框架。

AI与计算

Fragments MCP 服务器实现(WebMCP 框架集成)

基于模型上下文协议(MCP)的后端服务器实现,利用 WebMCP 框架暴露资源、工具和提示模板,支持 JSON-RPC 调用和多传输通道,以便向 LLM 客户端提供可扩展的上下文服务。

网页与API

aria-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供对 ARIA 规范数据的资源、工具与提示模板的标准化 JSON-RPC 访问,并支持本地(STDIO)和远程(Netlify Functions)传输方式。

AI与计算

DBT Nova MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,向大型语言模型(LLM)客户端提供统一的上下文服务,包括资源管理、工具注册与执行、以及可自定义的 Prompts 渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备可扩展的传输协议支持能力(如 Stdio、SSE、WebSocket 等)。

网页与API

Pancake POS MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供 Pancake POS 的资源访问、工具执行与对话相关能力,通过 JSON-RPC 与客户端通信,支持本地 stdio 与 HTTP 两种传输模式。

AI与计算

Gemini MCP 服务端(Rust 实现)

基于 Model Context Protocol (MCP) 的 JSON-RPC 2.0 服务器实现,提供资源管理、工具调用与上下文提示渲染,作为 Claude Code 等客户端的后端上下文服务,采用标准输入输出传输进行通信。

AI与计算

20x MCP 服务器后端实现

基于 Model Context Protocol 的桌面后端实现,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 在本地与远程客户端通信;包含会话管理、能力声明以及对多传输协议的支持,便于在本地环境下为 LLM 客户端提供结构化上下文与外部功能调用能力。

网页与API

ProxyWhirl MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,作为后端服务向 LLM 客户端暴露资源、工具和提示模板等上下文信息,通过 JSON-RPC 提供资源访问、工具执行和提示渲染能力,支持会话管理与多传输协议的扩展能力。

AI与计算

LLM Council MCP Server

基于 Model Context Protocol(MCP)的服务器端实现,提供资源、工具、提示模板管理,并通过 JSON-RPC 与客户端进行上下文与功能协作,支持多传输协议用于与大语言模型客户端对接。

开发者工具

Cluster Whisperer MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,向 LLM 客户端提供标准化的上下文信息和功能。通过 JSON-RPC(以 STDIO 传输为主)与客户端通信,支持托管资源、注册和执行工具、以及定义/渲染 Prompt 模板,并结合 OpenTelemetry 实现可观测性与可扩展性。

AI与计算

Spacebot MCP Server

Spacebot 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力。通过 MCP 标准协议与客户端进行 JSON-RPC 通信,支持本地 stdio 与 HTTP 传输,并在配置中实现对 MCP 服务器的注册、监控与热重载,作为多进程/多任务 AI 应用的上下文与工具服务后端。

AI与计算

SKMemory MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等能力,供 LLM 客户端以统一的 JSON-RPC 风格通过 MCP 进行访问与调用。

AI与计算

Personal Context Protocol - MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册/执行、以及 Prompt 模板渲染等核心能力,并通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议。

AI与计算

Borg MCP 服务器实现集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供资源管理、工具注册/执行以及提示/模板渲染等能力,供 LLM 客户端通过 JSON-RPC 与多种 MCP 服务器进行交互。仓库内包含多个独立的 MCP 服务端实现(如 lexis-mcp、lawborg-mcp、borg-mcp 等),通过 StdioTransport 提供标准化的服务入口,支持工具列表、工具调用以及跨提供方的集成能力。

AI与计算

onUI MCP 服务器端实现

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供资源、工具、提示模板等上下文相关能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式,便于在本地搭建可扩展的上下文服务。

AI与计算

Clive Browser MCP Server

基于 Model Context Protocol (MCP) 的浏览器控制后端服务器实现,提供一组浏览器操作工具给 LLM 客户端通过 MCP 协议调用,核心通过 Chrome DevTools Protocol (CDP) 控制浏览器,并通过 STDIO 的 JSON-RPC 方式与客户端通信。

网页与API

Adam v26 MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源(Resources)、工具(Tools)和提示模板(Prompts)的注册、管理和渲染能力,并通过 JSON-RPC 与客户端通信,支持 SSE 传输模式的事件推送,适合作为 LLM 客户端的上下文服务和外部功能执行入口。

数据库与文件

Paprika MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,为 Paprika Recipe Manager 数据提供资源、工具与提示模板,通过 JSON-RPC 方式与客户端通信,并支持标准传输通道(如 stdio),用于向大型语言模型提供可检索的配方数据与外部工具调用能力。

AI与计算

Koryphaios MCP后端服务器

基于 Model Context Protocol(MCP)的后端服务器,向大型语言模型客户端提供标准化的资源、工具与提示模板,并通过JSON-RPC进行交互;具备会话管理、能力声明、多传输协议支持(如 StdIO、SSE、WebSocket)以及安全可扩展的上下文服务框架。

网页与API

Crowd IT Unified MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器,提供资源管理、工具注册与执行以及 Prompt 模板渲染的统一上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持在多种传输协议下工作(如 STDIO、SSE、WebSocket)。

AI与计算

Railyard CocoIndex MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,为每个引擎实例提供语义代码搜索和 Overlay 索引管理能力,支持双表检索、实时状态查询与覆盖合并,能够通过标准化的 JSON-RPC 方式与 MCP 客户端通信。

网页与API

xProof MCP 服务器端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板等上下文服务,通过 JSON-RPC 2.0 的 MCP 接口与 LLM 客户端对接,支持在 MultiversX 区块链上进行证据证明与工具调用等能力。

网页与API

peon-ping MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的管理、JSON-RPC 通信与多场景部署能力,能够让 LLM 客户端通过标准接口调用音效资源、获取 Pack 信息并执行音频播放等功能。

AI与计算

FOUNDATION Local MCP Server

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,嵌入 FOUNDATION 桌面应用中,通过 JSON-RPC 提供资源管理、工具注册/执行以及提示模板等上下文服务,供本地 AI 客户端请求并获得标准化响应。

AI与计算

Roxlit MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,作为 Roxlit 向 LLM 客户端暴露 Luau 执行、资源访问与日志等能力的后端服务。通过标准输入输出(stdio)进行 JSON-RPC 通信,能够与 Roxlit Launcher 的 HTTP 服务协同工作,向 AI 客户端提供统一的上下文与工具执行能力。

AI与计算

Grimoire Kit BMAD MCP 服务器

Grimoire Kit 框架中的 BMAD MCP 服务器实现,为本地 IDE 客户端提供对 BMAD Intelligence Layer 的工具、资源和 Prompts 的统一访问接口,采用 MCP 标准通过 JSON-RPC 进行通信。服务器内置对 BMAD 生态工具的暴露与自动发现,支持对工具执行、资源读取、Prompts 渲染等功能的远程调用,与多种前端 IDE 或 Copilot/Cursor 等 MCP 客户端集成。

AI与计算

LibreChat MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板的后端服务,支持 JSON-RPC 通信与多传输协议(如 Stdio、SSE、WebSocket),用于向大语言模型客户端提供可扩展的上下文与功能接入。

网页与API

EasyBits MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(资源管理与数据访问)、工具(外部功能注册与调用)、以及提示模板(Prompts)的标准化提供,采用 JSON-RPC 形式与客户端通信,具备会话管理、能力声明,并可扩展多种传输方式。

AI与计算

Skylos MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供上下文信息与功能。核心能力包括托管与管理 Resources(数据资源)、注册与执行 Tools(外部功能)、定义与渲染 Prompts(提示模板),通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)实现安全、可扩展的上下文服务。该实现与 Skylos 项目紧密集成,提供对代码分析结果、资源访问、工具执行等能力的统一后端服务。

AI与计算

Spring AI Agent MCP Server Platform

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、以及提示模版渲染等核心能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明以及多种传输协议(如 SSE、WebSocket、STDIN/STDOUT 等)以为大型语言模型应用提供可扩展的上下文服务。

AI与计算

TuitBot MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端以标准化的 JSON-RPC 形式提供资源管理、工具执行以及提示模板等能力,支持多运行配置(Profile),并通过 stdio 传输与客户端进行交互。该实现包含服务端核心逻辑、工具清单、工厂化的适配器以及对各运行档案的支持,属于完整的服务器端实现而非仅仅示例。

网页与API

Cloudflare Agents — MCP 服务器实现集合

基于 Model Context Protocol 的 MCP 服务器实现与示例,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端交互,适配多种传输方式以为 LLM 应用提供可扩展的上下文服务。

AI与计算

Cognithor MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,作为 LLM 客户端的上下文提供与能力服务中心,负责托管资源、注册并执行工具、定义与渲染提示模板,并通过 JSON-RPC 在多种传输通道上与客户端通信,支持会话、能力声明与安全沙箱机制的扩展能力。

网页与API

Deterministic Observability Framework MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/托管、提示模板的渲染与执行,以及通过 JSON-RPC 与客户端进行标准化通信的后端服务。

AI与计算

tack-mcp 服务端

基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端以标准化方式暴露上下文资源、可执行工具与提示模板,并通过 JSON-RPC 形式进行交互,支持会话管理与多种传输通道的对接(当前实现以 STDIO 传输为主)。

AI与计算

Tollama MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染,通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输协议的可扩展上下文服务。

网页与API

Spectral MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供工具注册与执行、资源访问、以及对话模板渲染等能力,允许通过 JSON-RPC 与客户端协同工作,并通过 STDIO 传输实现与 LLM 客户端的通信。

AI与计算

Elisa MCP 后端服务器

基于模型上下文协议(MCP)的后端服务器实现,集成资源/工具/提示模板的管理与暴露,通过 Express + WebSocket 提供对 LLM 客户端的上下文服务,并支持通过外部 MCP 服务器和设备插件进行扩展与连接。

AI与计算

VKKM Aegis MCP Server

基于 Model Context Protocol (MCP) 的企业级后端服务器,向 LLM 客户端提供资源、注册与执行工具、以及可渲染的提示模板等上下文服务,并通过 JSON-RPC/HTTP 与 Claude 等客户端进行通信,支持本地化计算、企业数据集成与多种传输方式。

网页与API

Bluesky Community Feed MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,统一管理资源、注册并执行工具、定义并渲染提示模板,并通过 JSON-RPC 与 LLM 客户端进行通信,提供可扩展的上下文服务与多传输协议支持。

AI与计算

adif-mcp

基于 Model Context Protocol (MCP) 的后端 MCP 服务器实现,提供 ADIF 数据的资源、工具与提示模板等能力,供 LLM 客户端以标准化的 JSON-RPC 方式进行上下文信息获取、功能调用与模板渲染。

AI与计算

MCP 代理服务器 - mcp-proxy

基于 Model Context Protocol (MCP) 的后端实现,作为通用的上下文服务网关:托管与管理资源、注册并执行工具、定义并渲染提示模板;通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明,以及多种传输协议(如 STDIO、SSE、WebSocket),并内置治理与合规机制保障上下文服务的安全、可扩展性与可追踪性。

AI与计算

Brakit MCP Server

Brakit 提供基于 Model Context Protocol (MCP) 的服务器端实现,向大型语言模型(LLM)客户端以标准化方式暴露资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多种传输方案,用于在本地环境中为 LLM 应用提供上下文服务与扩展能力。

AI与计算

Proletariat MCP Server

基于 Model Context Protocol 的后端服务器,提供资源管理、工具注册/执行和提示模板渲染的标准化服务,采用 JSON-RPC 与 LLM 客户端通信,支持多传输协议并具备会话管理与能力声明能力。

AI与计算

Arkana MCP 服务器

Arkana 是一个基于 Model Context Protocol (MCP) 的后端实现,提供资源托管、工具注册/执行、提示模板渲染等能力,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多种传输模式(stdio、SSE、streamable-http),用于给 LLM 客户端提供安全、可扩展的上下文和分析工具集成环境。

AI与计算

rust-faf-mcp

基于 FAF 的 MCP 后端服务器,实现资源管理、工具执行与 FAF 相关的提示模板渲染,使用 JSON-RPC 通过标准输入输出进行通信。该服务器提供 5 个工具:faf_init、faf_git、faf_read、faf_score、faf_sync,并实现 MCP 协议的核心功能(初始化、工具列出与调用、资源查询等)。

AI与计算

Remarq MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,通过 MCP 协议向 LLM 客户端提供对 Remarq 注释系统的资源、工具和提示上下文访问,支持 JSON-RPC 的请求/响应模式。

开发者工具

Quern MCP 服务器

基于 Model Context Protocol 的本地后端实现,作为 MCP 服务器向 LLM 客户端提供资源托管、工具注册与执行、以及可渲染的 Prompt 模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持多传输协议与会话管理,便于在本地环境调试 AI 驅动的移动开发工作流。

AI与计算

Astro MCP 服务器实现

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器实现,提供资源与工具管理、提示模板渲染,以及与 Claude Code/其他客户端的 JSON-RPC 通信,支持会话管理、跨传输协议的上下文服务。

AI与计算

envpkt MCP 服务器

基于 Model Context Protocol 的后端服务器,向 LLM 客户端提供凭证元数据、工具和资源信息,并通过 JSON-RPC 进行通信,便于在对话中查询和执行外部功能。它包含资源管理、工具注册与调用、以及轻量的提示/模板能力支撑,适配多种传输方式。

网页与API

Nomen MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示的标准化上下文服务,支持通过 JSON-RPC 在 stdio/HTTP 传输,并与 Nostr、SurrealDB、嵌入式模型及上下文虚拟机等模块无缝协作,兼容多种客户端框架的后端上下文服务。

开发者工具

Iconx MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,用于向大语言模型(LLM)客户端提供图标资源、工具与可自定义的 Prompt 模板等上下文服务。该仓库中的 iconx 包提供一个可运行的 MCP 服务器实现,通过标准输入输出(stdio)传输,与客户端进行 JSON-RPC 通信,注册并执行工具(如搜索图标、生成图标组件等),并支持通过配置管理图标资源与输出。

开发者工具

NeuroVerse Governance MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供 JSON-RPC 交互、资源与工具注册与执行、以及提示模板的管理与渲染等能力,支持通过标准输入/输出与客户端进行通信,以及会话管理与多协议传输的扩展能力。

AI与计算

Mesnada MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,支持 HTTP/微前端传输与 stdio 等多种传输方式,适合作为 LLM 客户端的上下文与功能后端服务。

AI与计算

EDT MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,为 1C:EDT 的 AI 助手提供上下文和功能服务。服务器负责托管资源、注册并执行工具、定义并渲染提示模板,采用 JSON-RPC 与客户端通信,支持流式传输(SSE/HTTP)以实现实时交互,并提供会话管理与多种传输协议的后端上下文服务框架。

AI与计算

Claude Cortex MCP Memory Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供 Claude Cortex 的内存检索、时间线、详细信息与保存等工具的标准化 JSON-RPC 接口,供 LLM 客户端按统一协议查询与调用,支持本地文本检索、向量检索与知识图谱扩展等能力。

AI与计算

Bubbaloop Model Context Protocol 服务器

基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文信息和能力服务。核心功能包括托管和管理 资源(Resources)、注册与执行 Tools、以及定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端通信,支持多种传输模式(如 STDIO、HTTP、WebSocket),整合节点管理、RBAC 权限控制和 Zenoh 通信等组件,用于在硬件/物联网场景中提供安全、可扩展的上下文服务框架。

AI与计算

aidaemon MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,提供资源(Resources)托管、工具(Tools)注册/执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 LLM 客户端进行标准化上下文服务交互,并支持会话管理与跨传输协议的通信能力。

AI与计算

Sage Design Engine MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供组件注册与查询、工具执行以及应用模板获取等功能,通过 JSON-RPC 与客户端通信,供 LLM 客户端查询和执行资源、工具、Prompts 等上下文服务。

桌面与硬件

mirroir-mcp

基于 Model Context Protocol (MCP) 的服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、Prompts 定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket),用于为大模型/LLM 客户端提供标准化的上下文信息和功能访问。

AI与计算

Multi-CLI MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供跨多 AI 客户端的工具、提示与潜在资源上下文服务,支持 JSON-RPC 请求/响应、会话管理以及标准传输(如 STDIO)。

AI与计算

Radar MCP 服务端

Radar 内置的 Model Context Protocol (MCP) 服务器实现,提供统一的资源数据访问、工具调用与 Prompt 渲染接口,支持通过 JSON-RPC 与 LLM 客户端通信,方便 AI 助手查询集群上下文、执行外部功能、渲染对话模板等。

网页与API

JFL MCP Server Suite

基于 MCP 协议的后端实现集合,提供面向 LLM 客户端的上下文服务、资源与工具注册、以及提示模板的标准化渲染能力。仓库内包含多个 MCP 服务器实现(如 Context Hub MCP、Service Registry MCP、Service MCP、Peer MCP 等),通过 JSON-RPC 在 STDIN/STDOUT 进行通信,支持通过工具化接口向 LLM 提供资源、执行外部工具、以及渲染 Prompts/模板等上下文能力。

AI与计算

SubNetree MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行,以及基于 Prompts 的渲染能力,通过 JSON-RPC 与 LLM 客户端进行通信;实现了一个用于 MCP 的服务器端,以便 LLM 客户端能读取资源、调用工具、以及渲染/获取提示模板等上下文信息。

AI与计算

Janus MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,为 LLM 客户端提供标准化的资源、工具与提示的暴露和管理,并通过 JSON-RPC 进行远程调用与会话管理,具备可扩展的插件式架构与本地化推理上下文服务。

AI与计算

ALGT MCP 服务器(Prolog 实现)

基于模型上下文协议(MCP)的后端服务器实现,由 Prolog 编写,提供对资源、工具和提示模板的注册、查询与执行能力,并通过 JSON-RPC 与客户端通信,支持会话管理与能力声明,便于将上下文信息和功能暴露给大语言模型(LLM)客户端使用。

AI与计算

TalkTo MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端以标准化方式提供资源、工具和提示等上下文服务,并通过 JSON-RPC 与客户端通信,支持多 provider 路由与会话管理。

网页与API

WebAct MCP 服务端

基于 MCP 协议的后端服务,提供对浏览器自动化能力的统一访问入口,通过 JSON-RPC 与客户端交互并将命令映射到 WebAct 的 CLI/SDK 操作,实现对资源、工具及提示模板等能力的托管与执行,适用于将浏览器自动化功能嵌入到大语言模型的工作流中。

AI与计算

Dexscreener MCP Server Tool

基于模型上下文协议(MCP)的后端服务器,提供资源、工具与提示模板等标准化上下文服务,支持以 JSON-RPC 形式与 AI 代理进行交互,便于在不同代理中进行上下文获取、工具调用与提示渲染。

AI与计算

Forge MCP Server

基于 Forge 项目实现的 Model Context Protocol (MCP) 服务器,提供资源、工具与提示等上下文服务,通过 JSON-RPC 方式与 MCP 客户端通信,支持以 STDIO 等传输协议接入,便于将 LLM 调用外部功能、访问数据资源并渲染自定义提示模板等能力。

AI与计算

Robinhood Portfolio MCP Server

基于 Model Context Protocol 的 Robinhood 投资组合只读后端,为LLM客户端提供统一的数据访问、工具调用与对话能力。

网页与API

pyplots MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务,为大语言模型客户端提供绘图规格、实现代码、库信息的上下文与工具访问能力,并通过 JSON-RPC 与客户端进行通信。该服务器负责资源管理、工具注册与执行、Prompt 模板的定义与渲染,以及会话管理与能力声明,支持多种传输协议以适配不同的集成场景。

网页与API

tvscreener MCP 服务端

基于模型上下文协议(MCP),为大模型/LLM 客户端提供字段发现、资源筛选以及外部工具执行等能力的后端服务。通过 JSON-RPC 与客户端通信,支持资源管理、工具注册与执行、以及可定制的 Prompt 渲染等功能,便于在对话系统中提供证券市场数据上下文与交互能力。

开发者工具

ai-rulez MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具注册与提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持标准化的资源、工具与提示渲染管理。

AI与计算

NovaNet MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具、提示的注册、执行和渲染能力,并通过 JSON-RPC 与 LLM 客户端通信,实现会话管理、能力声明,以及对多传输协议的支持,以向 AI 代理提供标准化的上下文服务。

AI与计算

Kastell MCP 服务端

基于 Model Context Protocol 的后端实现,为 MCP 客户端提供统一的上下文资源、工具执行和 Prompt 渲染能力,采用 JSON-RPC 形式对外提供服务,支持多传输协议,具备会话管理和能力声明等特性,适合作为 LLM 客户端的上下文与功能服务端。

AI与计算

Claw Recall MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供标准化的工具集与内存检索能力,允许本地或远程的 LLM 客户端通过 MCP 访问会话记忆、搜索结果、以及外部源捕获工具等功能,并支持 STDIO 与 SSE 等传输方式。

AI与计算

MCP Geo Server

基于 Model Context Protocol 的地理空间数据后端服务器,提供资源管理、工具注册与调用,以及按 MCP 规范渲染的提示模板与路由能力,支持 STDIO/HTTP 等传输,面向向量数据、地图服务与地理统计数据的 LLM 应用上下文服务。

网页与API

Guilders MCP 服务器

基于 Guilders API 的 MCP 服务器实现,通过 JSON-RPC 提供资源访问、工具执行以及提示模板渲染等能力,供大型语言模型(LLM)客户端安全地获取上下文数据与外部功能。

AI与计算

CodeFire MCP 服务器

基于 Model Context Protocol(MCP)的本地化后端服务,使用 SQLite 持久化存储并通过 stdio 进行 JSON-RPC 通信,向 LLM 客户端提供资源、工具和提示模板等能力,便于在本地环境中为 AI 编码代理提供上下文与功能。

AI与计算

McPC MCP 服务器代理与测试服务器实现

基于 Model Context Protocol (MCP) 的服务器实现,提供一个代理型 MCP 服务器,将上游 MCP 客户端的请求暴露为本地 HTTP/Streamable HTTP 服务,支持工具、资源、提示等请求的转发与认证代理,并可用于 AI 沙箱场景的安全访问与测试。

AI与计算

PhiFlow MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册/执行以及可渲染的提示模板等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,适配分布式上下文服务场景。

网页与API

Akashi Context MCP 服务器

基于 Model Context Protocol(MCP)实现的后端服务器,提供资源托管、工具注册与执行、以及可定制的 Prompt 模板渲染。通过 JSON-RPC 形式与 LLM 客户端通信,支持多传输方式(HTTP、STDIO 等),并提供会话管理、能力声明、访问控制与审计追踪等完整后端能力。仓库内不仅包含完整的 MCP 服务端实现,还实现了与 Claude/Cursor/Windsurf 等 MCP 客户端的对接支持。

AI与计算

Analyze Coverage MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,将 LCOV 覆盖率数据以标准化的 JSON-RPC 工具形式暴露给 LLM 客户端,提供覆盖统计、未覆盖区域查询与带注释源码等能力,便于 AI 辅助分析和引导测试工作。

AI与计算

Airbroke MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,能够以标准化的 JSON-RPC 方式向 LLM 客户端提供资源管理、工具注册与执行,以及上下文相关的输出(包括提示/模板等),并通过可扩展的工具集合支持多种传输与认证方式,具备会话管理与跨源访问控制能力。

AI与计算

Forge MCP 服务器实现

基于 Forge 平台的 MCP(Model Context Protocol)后端实现,提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与多传输协议(如标准输入输出、Server-Sent Events、WebSocket)对接 LLM 客户端,实现跨会话的上下文服务与能力声明。

网页与API

WCA MCP Server

基于 Model Context Protocol (MCP) 的后端服务,向大语言模型客户端以标准化方式提供世界魔方协会(WCA)数据的资源、工具与提示模板等上下文能力,并通过 JSON-RPC 与客户端交互实现数据读取、外部功能调用与提示渲染等功能。

AI与计算

Plexo MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,作为 LLM 客户端的上下文提供与能力服务中心,负责托管资源、注册与执行工具,以及管理提示模板、会话与安全性策略。通过 JSON-RPC 与客户端通信,支持 HTTP 传输与 Stdio 传输,适用于在生产环境中为 LLM 提供可扩展的上下文与功能服务。

AI与计算

Lilbee MCP 服务端

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板渲染等能力,供离线/本地 LLM 客户端通过 JSON-RPC 调用获取上下文、执行外部工具和渲染提示。

AI与计算

ImmyGo MCP 服务器

基于 Model Context Protocol (MCP) 的 JSON-RPC 服务器实现,提供 immygo_widget_catalog、immygo_generate_code、immygo_search_docs 等工具,供 Claude Code、Cursor 等 MCP 客户端通过标准 MCP 流式/非流式请求进行调用与协作。该仓库同时包含可运行的 MCP 客户端接入示例,形成完整的服务端与客户端配合方案。

AI与计算

Walrus-MCP 服务器桥接

Walrus Daemon 的 MCP 服务器实现:通过 MCP 桥接连接一个或多个 MCP 服务器,注册工具、转发工具调用并将 MCP 能力整合到 Walrus 的运行时中,提供对外部工具的统一访问,支持与 LLM 客户端以标准化方式进行工具调用与资源访问。

AI与计算

Schelling Protocol MCP 服务端

基于 Model Context Protocol (MCP) 的 Schelling 协调网络后端服务器,实现资源/工具/提示模板等上下文服务,通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明以及工具生态绑定,适配 Claude Desktop 等 MCP 客户端进行跨系统协作。

网页与API

Grok FAF MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源与工具的托管与访问、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC/HTTP-SSE 与客户端通信,包含会话管理、能力声明,以及支持多传输协议的上下文服务框架。

网页与API

Software Factory MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供标准化的上下文服务:托管资源、注册与执行工具、定义与渲染 prompts,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 SSE、WebSocket、StdIO)以实现安全、可扩展的上下文服务框架。仓库中已有大量 MCP 相关模块和对接实现,能够与客户端协同提供资源、工具与提示等能力。对接示例包括通过 llm_client 与 MCP 平台服务器进行交互以及对 MCP 服务的自检与自动重启等能力。

桌面与硬件

OculOS MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,为 AI 客户端提供资源、工具调用能力与提示模板渲染等上下文服务;通过 JSON-RPC 2.0 以换行分隔的文本协议在标准输入输出(STDIN/STDOUT)上与客户端通信,支持对桌面应用的自动化控制与上下文信息管理。

AI与计算

mcp-supersubagents

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及模板渲染等能力,通过 JSON-RPC 与客户端通信,支持多提供者协同与并行执行的后端上下文服务。

AI与计算

The New Fuse MCP Server

基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持通过 JSON-RPC 与 MCP 客户端通信,具备对会话、能力声明与多传输协议的支持,属于一个完整的 MCP 服务器实现(含服务器端核心、工具暴露与网络化 MCP 传输适配)。

AI与计算

kap MCP 服务器实现

基于模型上下文协议(MCP)的后端服务实现,提供对 MCP 客户端的资源访问、工具注册与执行、以及与上游 MCP 服务器的JSON-RPC交互能力。实现自包含的服务器端逻辑、工具访问控制、会话管理和凭证处理,并通过侧车代理在容器环境中实现安全的流量控制与跨服务器协作。

网页与API

StockData.Net MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供股票数据、市场数据以及工具调用等上下文服务,核心通过 JSON-RPC 进行通信并具备路由、容错与健康监控能力。

网页与API

ApiTap 基于 Model Context Protocol 的后端 MCP 服务器实现

一个实现 MCP(Model Context Protocol)的后端服务器,提供资源管理、工具注册、Prompt 定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议,面向将网站/数据源暴露为可被 LLM 调用的上下文服务的场景。

AI与计算

AI Workflow MCP后端服务器

基于 Model Context Protocol(MCP)的后端实现,提供资源(Resource)、工具(Tools)、提示模板(Prompts)的托管、注册与渲染,客户端通过 JSON-RPC 与服务器通信,支持多会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket),为LLM应用提供可扩展的上下文与功能服务。

开发者工具

Frontmatter Matters MCP Server

基于 Model Context Protocol (MCP) 的后端服务,实现了一个可对接的 MCP 服务器,向 LLM 客户端提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议扩展。

网页与API

US Gov Open Data MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,能够自动发现并注册多政府 API 模块,向大语言模型客户端提供上下文资源、工具和 prompts,并通过 JSON-RPC 与客户端通信,支持多种传输协议与会话管理。

AI与计算

llmkit MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,用于在 LLM 客户端与代理/资源之间提供可扩展的上下文服务。该服务器实现了工具注册与执行、成本/预算相关查询、会话摘要等 MCP 功能,支持通过 JSON-RPC 与客户端通信,并能够暴露“健康/状态”等查询能力,便于 Claude Code/Cursor 等工具进行上下文协作。

AI与计算

floop MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,用于向 LLM 客户端以标准化方式提供资源、工具、提示等上下文和功能,通过 JSON-RPC 在标准输入输出(stdio)内通信,支持会话管理与多种传输场景,作为后端后端服务为 LLM 应用提供可扩展的上下文服务框架。

网页与API

Personal KB MCP Server

基于 Model Context Protocol (MCP) 构建的后端服务器,向 LLM 客户端标准化暴露资源、工具与 Prompt 模板,并通过 JSON-RPC 与客户端交互,实现知识管理、工具注册与自定义对话模板的渲染与执行。

AI与计算

Emend MCP 服务端

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源管理、工具注册及提示模板等能力,通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(stdio、SSE、WebSocket),为 LLM 应用提供可扩展的上下文服务和代码重构能力。

AI与计算

NatShell MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供标准化的资源、工具和提示(Prompts)上下文服务,通过 JSON-RPC 与客户端通信,支持资源管理、工具注册/执行以及提示渲染等核心能力。实现中包含对工具注册、资源列举、资源读取、工具执行等 MCP 核心操作的处理逻辑,并提供了可运行的 MCP 服务入口。

AI与计算

APTL 基于 Model Context Protocol 的 MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及通过 JSON-RPC 与客户端进行通信的能力,支持会话管理、能力声明与多传输通道的扩展性,用于将 AI 客户端(LLM)接入到包含资源、外部工具以及可定制提示的实验环境中。

AI与计算

Haira MCP Server

Haira 的 MCP 服务器实现,基于 Model Context Protocol(MCP)提供资源与工具的管理、以及将工作流暴露为外部工具的能力,服务器通过 JSON-RPC 与客户端通信,支持多种传输方式(如标准输入输出stdio 和 SSE),并与 Haira 内部运行时紧密集成以实现对上下文、工具执行和提示模板的标准化服务。

AI与计算

Animus MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,用于以标准化的 JSON-RPC 方式向 LLM 客户端提供上下文资源、工具能力与提示模板;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket),以实现对资源、工具和提示的统一托管与渲染,辅助构建安全、可扩展的 MCP 服务端上下文服务。

AI与计算

OpenSearch Launchpad MCP Server

基于 Model Context Protocol(MCP)的后端服务器,提供资源、工具与 Prompt 的标准化管理与 JSON-RPC 通信,以支持 LLM 客户端按阶段获取上下文、执行计划、验证以及工作流渲染等能力。

AI与计算

OpenSpawn MCP 服务器

基于 MCP 协议实现的后端服务,按标准 JSON-RPC 向 LLM 客户端暴露工具(Tools)、资源管理能力与提示模板等能力,并通过与沙箱模拟器的集成提供统一的上下文和功能接口。服务器核心包含对 MCP 请求的处理、初始化能力声明、工具列表示以及工具调用执行等核心功能,支持与 BikiniBottom 沙箱的发送/接收、路由与任务管理等模块协同工作。

AI与计算

Brain Ecosystem MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具与提示模板的托管与渲染,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(stdio、SSE、HTTP/WS),为大语言模型提供可扩展的上下文服务框架。

AI与计算

JD.AI MCP 服务器实现

基于模型上下文协议(MCP)的后端服务,专注托管与管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板,随后通过 JSON-RPC 与 LLM 客户端进行标准化的上下文交互。服务端负责会话管理、能力声明,并可通过多种传输通道(REST/SignalR、Stdio、Server-Sent Events、WebSocket)实现跨平台的上下文服务能力,适配 JD.AI 生态内的网关、通道与工具体系。

开发者工具

Gameplay MCP Server for Unity

基于模型上下文协议(MCP)的 Unity 后端服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,方便将游戏上下文以标准化的 JSON-RPC 形式暴露给大型语言模型(LLM)客户端;支持通过 HTTP 的流式传输实现实时通信与多会话管理。

AI与计算

SuperNovae MCP 服务器实现

基于 Model Context Protocol 的后端服务器实现,提供资源及工具托管、Prompt 渲染等能力,并通过 JSON-RPC 风格的 MCP 协议在 Unix 域套接字上与客户端进行通信与协作。

AI与计算

Claude Conversation MCP Server (示例)

基于 Model Context Protocol 的服务器实现示例,提供列出线程、获取线程、搜索会话、获取具体会话等工具,用于将本地对话历史以 MCP 方式暴露给 Claude Desktop 等客户端进行导出与查询。

AI与计算

MCP-Obsidian

基于 Model Context Protocol (MCP) 的 Obsidian 知识库后端,向 MCP 兼容的 AI 客户端提供对本地 Obsidian Vault 的资源访问、工具执行与元数据渲染,并通过标准化的 JSON-RPC 协议进行通信与会话管理。

AI与计算

Claude Terminal MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,嵌入在 Claude Terminal 桌面应用中,提供资源、工具、提示模板等 MCP 组件给 LLM 客户端,通过 JSON-RPC 进行通信,并支持会话管理、能力声明与插件化注册表功能。

AI与计算

Lucius MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,面向 LLM 客户端提供统一的上下文能力(资源、工具、Prompts),通过 JSON-RPC 进行通信,底层采用 FastMCP 与 Starlette 构建,支持会话管理、能力声明以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,面向 Allure TestOps 场景的资源与工具服务化暴露。

AI与计算

Planning Game XP MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具与提示模板的标准化管理与访问,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明,以及与 Firebase 数据库的交互。该仓库包含可运行的 MCP 服务端代码及相关工具与测试,适用于将 LLM 客户端接入 Planning Game XP 的上下文与功能服务。

AI与计算

Sigil Model Context Protocol (MCP) Server

基于 Model Context Protocol 的 Sigil MCP 服务器实现,提供资源与工具托管、Prompt 模板管理,以及通过 JSON-RPC 方式与 LLM 客户端进行上下文和功能交互,支持向外暴露工具查询、调用与渲染能力。

AI与计算

SPAWN-MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源、工具、提示等核心上下文能力给大模型/LLM 客户端,通过 JSON-RPC 形式对外提供 MCP 功能与会话管理,并可与多种传输模式协作。

AI与计算

LEMON MCP 服务器桥接

LEMON 是一个面向临床决策工作流的全栈后端,仓库中包含一个 MCP 服务器桥接实现。该桥接通过 JSON-RPC 提供模型上下文服务,核心职责包括托管资源、注册与执行工具、定义与渲染提示模板,并支持多种传输协议(如标准 I/O、Server-Sent Events、WebSocket)。通过 MCP 桥接,客户端可以读取资源、调用工具、获取并渲染提示模板等,以实现对 LLM 的统一上下文服务与扩展能力。仓库提供 MCP 服务器入口脚本 run_mcp.py,以及 Bridge 实现模块,形成一个可运行的服务器端 MCP 实现。

AI与计算

Furman MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt/上下文相关支持,专为让大语言模型(LLM)以标准化方式访问文件资源、执行外部工具(如 S3/SFTP 操作)而设计。服务器通过 JSON-RPC 与客户端通信,支持在标准输入/输出(STDIO)传输上运行,便于与 AI 客户端(如 Claude 等)进行无缝对接。

网页与API

ICC Profile MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,聚合 ICC 配置分析、工具执行、资源管理与提示模板渲染,提供标准化的 JSON-RPC 通道供 LLM 客户端查询资源、注册并执行工具、以及获取和渲染提示模板。

AI与计算

Atlas MCP 服务器实现

基于 Model Context Protocol (MCP) 的 Atlas 后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt/模板的渲染等 MCP 核心能力,通过 JSON-RPC 与客户端通信,支持 StdIO 与 SSE 等传输方式,适配多种 LLM 客户端的上下文服务需求。

AI与计算

AIVI MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板等核心能力的标准化访问。通过 JSON-RPC 与客户端通信,服务器负责资源管理、工具注册与执行,以及提示模板的定义与渲染,支持将语言规范与工具集成到 AI 客户端的上下文服务中。

AI与计算

Mnemosyne MCP 服务器端

基于 Model Context Protocol (MCP) 的后端实现,向大模型客户端提供资源管理、工具注册/执行与可定制的提示模板等能力,并通过 JSON-RPC 与客户端通信,支持多种传输通道(stdio、WebSocket、SSE 等)以提供安全、可扩展的上下文服务。

AI与计算

IronCurtain MCP 服务器框架

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与客户端通信的后端服务,支持多传输通道(如标准输入输出、服务器发送事件、WebSocket),具备会话管理、能力声明与策略执行能力,便于向大语言模型客户端提供标准化的上下文信息和外部功能。

AI与计算

Kvlar

基于 Model Context Protocol (MCP) 的开源后端实现,提供对资源、工具、提示模板等的托管与管理,通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(如 stdio、TCP)、策略评估、审计日志和热加载等特性,旨在为大语言模型(LLM)场景中的上下文服务提供安全、可扩展的后端支持。

AI与计算

Connapse MCP 服务器

基于 Model Context Protocol 的后端服务端实现,面向 LLM 客户端提供资源管理、工具注册与执行,以及 Prompts 的定义渲染,使用 JSON-RPC 进行通信,并支持通过多种传输方式与 Claude Desktop 等 MCP 客户端集成。

网页与API

microCMS 文档 MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端应用,提供对 microCMS 文档的访问、检索与工具调用能力,并通过 JSON-RPC 与 MCP 客户端通信,支持本地文档资源的管理与渲染。

AI与计算

Flow Weaver MCP 服务器实现

基于 Flow Weaver 的 MCP 服务器实现,提供资源、工具和提示模板的标准化管理与对外暴露,通过 JSON-RPC 与 LLM 客户端进行上下文服务、工具调用和提示渲染,支持多传输协议与会话管理,适配 Claude Code、Cursor、OpenClaw 等 MCP 客户端与插件生态。

AI与计算

bazzite-mcp MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务,提供资源、工具与提示模板的标准化访问,用于让 AI/LLM 客户端以结构化上下文与能力与本地系统进行交互,并通过 JSON-RPC 等传输协议与客户端沟通。

AI与计算

AgentTel MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端暴露监控与运维上下文工具、资源和提示模板等能力,通过 JSON-RPC 进行规范化通信,支持工具执行、资源查询、健康与告警上下文等场景,便于将生产系统上下文整合到 LLM 的决策流程中。

AI与计算

CCC MCP 服务端实现

基于 Model Context Protocol(MCP)的后端服务实现,集成到 CCC(Claude Code Launcher)中,用于托管资源、注册与执行工具,以及定义与渲染提示模板。通过内联(Inline)MCP 与 Claude Code 的虚拟文件系统(VFS)进行 JSON-RPC 通信,支持多层配置体系(全局/预设/项目)以及插件扩展,目标是为大型语言模型客户端提供标准化的上下文服务与外部功能调用能力。

开发者工具

NULL EPOCH MCP 服务器 (TNE-SDK 内置实现)

基于 Model Context Protocol 的本地 MCP 服务器实现,将 The Null Epoch 的游戏 REST API 以 JSON-RPC 风格暴露给 MCP 客户端,方便 AI 客户端通过 get_state 和 submit_action 等工具与游戏后端交互。该实现提供初始化、工具清单、单工具调用、通知等 MCP 基本功能,适用于 Claude Desktop、Cursor、Kiro 等支持 MCP 的客户端。

AI与计算

DivineOS MCP Server

DivineOS MCP Server 基于 MCP 协议实现的后端服务,利用 MCP SDK 将资源、工具和提示等能力以 JSON-RPC 形式暴露给 MCP 客户端,支持标准输入输出和 HTTP 传输,提供完整的伺服器端实现与工具集合。

AI与计算

XHelio MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 MCP 客户端提供数据资源、工具执行和 Prompt 渲染能力。通过将 XHelio 的 OrchestratorAgent 以 MCP 工具形式暴露,支持以 JSON-RPC 形式进行请求与响应,适用于由 MCP 客户端发起的对话、数据查询和可视化任务的后端服务,且可通过 stdio 等传输通道进行通信。

AI与计算

Epic Scheduler MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和 UI 渲染等能力,使用 JSON-RPC 通过 /mcp 与客户端通信,支持 Durable Objects、WebSocket、SSE 等传输,面向 LLM 客户端的上下文与功能服务。

AI与计算

UNITARES Model Context Protocol 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供对资源的托管与访问、工具的注册/执行,以及 Prompt 模板的定义与渲染。服务器通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明,并可通过多种传输协议(如标准输出/终端、Server-Sent Events、WebSocket)进行上下文服务与功能调用,为 LLM 应用提供安全、可扩展的上下文服务框架。

网页与API

OSS Autopilot MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式暴露资源、注册工具并提供提示模板,支持 stdio 与 HTTP 流式传输,便于在本地搭建可扩展的上下文服务。

开发者工具

EODHD MCP Server

基于模型上下文协议(MCP)的后端服务,将 EOD Historical Data 的金融数据 API 统一暴露给 MCP 客户端,提供资源管理、工具调用与可渲染提示模板等能力,支持 HTTP/SSE/STDIO 等传输模式,实现与 Claude/ChatGPT 等大语言模型的安全可扩展上下文服务。

AI与计算

RayClaw MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的标准化管理与渲染,支持通过 JSON-RPC 进行通信,能够使用stdio和流式HTTP等传输、并具备协议协商、健康检查和工具缓存等完整服务器能力。

开发者工具

kea-mcp

基于 Model Context Protocol (MCP) 的 Kea 语言后端服务器实现,提供通过 MCP 客户端进行资源管理、工具调用与诊断输出的上下文服务,支持与编辑器/代理等外部组件的集成。

AI与计算

Tree-sitter Analyzer MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的统一接口,并通过 JSON-RPC 与客户端通信,支持多种传输协议(如 Stdio、SSE、WebSocket),用于向大模型/LLM 客户端提供可扩展的上下文、数据访问以及外部功能调用能力。该仓库包含完整的服务端实现与大量 MCP 相关工具和测试用例,旨在作为企业级代码分析与 AI 辅助工作的后端上下文服务框架。

AI与计算

InboxAPI MCP 服务器代理(CLI/Rust 版)

基于模型上下文协议(MCP)的本地服务器代理,通过 STDIO/JSON-RPC 将客户端请求转发到 InboxAPI MCP 服务,并在本地管理凭证、工具列表、身份注入与渲染提示等能力,提供安全、可扩展的上下文服务框架。

AI与计算

KTME Knowledge Transfer Me - MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与调用、Prompt 模板渲染等能力,支持 STDIO、SSE/HTTP 等传输模式,通过 JSON-RPC 与 LLM 客户端进行交互,为 AI 代理提供可扩展的上下文服务框架。

AI与计算

MCP CMD Windows Command MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供可执行的 Windows 命令工具集合。通过 JSON-RPC/STDIO 与 LLM 客户端通信,具备命令执行安全控制、进程管理、以及 anti-hang/防僵死机制,旨在为 AI 助手在本地 Windows 环境提供可控的上下文能力与工具入口。

AI与计算

GitHub Tamagotchi MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,向 AI 助手提供宠物资源、工具注册/执行等能力,采用 JSON-RPC 形式进行通信。内置 FastAPI 应用,通过 FastMCP 暴露工具接口,允许 AI 客户端查询宠物状态、注册/喂养宠物、获取历史等,并通过 /mcp/mcp 路径提供 MCP 服务端入口。

AI与计算

Tidepool MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供对 Haskell 代码的执行、资源与工具的注册与调用,以及 Prompt 模板的渲染等标准 MCP 服务,支持 stdio 与 HTTP 传输与会话管理。

AI与计算

General Translation MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的标准化管理与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 STDIO)以为 LLM 应用提供安全、可扩展的上下文服务。

AI与计算

Alfanous MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,将 Alfanous Quranic 搜索引擎暴露为 MCP 的资源、工具与提示模板,提供面向 LLM 客户端的上下文与功能服务,支持通过 MCP 客户端进行资源读取、工具调用与提示渲染。

AI与计算

NanoClawbster MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具以及提示模板等上下文信息,通过 JSON-RPC 与客户端通信,支持多传输通道(当前实现以 stdio 介质为主,后续可扩展为 SSE/WebSocket),并与 Composio 集成以暴露元工具,,用以构建可扩展的对话式 AI 后端服务。

商业系统

Quantum Ledger 财务 MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,暴露财务相关资源、工具和报表模板,供 MLP 客户端通过 JSON-RPC 调用以获取上下文、注册并执行工具、以及渲染 Prompt 模板;并内置 Gemini Bridge 支持,提供对外部模型协作与自动化执行能力。

AI与计算

Flowise Dev Agent MCP 服务器

基于 Model Context Protocol 的完整 MCP 服务器实现,面向 LLM 客户端提供标准化的上下文与功能服务。核心功能包括托管与管理 Resources(资源/数据)、注册与执行 Tools(工具)、以及定义与渲染 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持多协议传输、会话管理、能力声明和可扩展的工具集合,内置 51 个 Flowise 原生工具的 MCP 接口。

网页与API

wet-mcp

基于 Model Context Protocol (MCP) 的服务器实现,为 LLM 客户端提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板;通过 JSON-RPC 进行请求/响应,并可在多种传输通道(如标准输入输出、SSE、WebSocket 等)下工作,内部包含会话管理、能力声明和文档/缓存等后端能力,用于构建可扩展的上下文服务平台。

AI与计算

HPD-MCP-Server-Framework

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供资源、工具与可渲染的提示模板,并通过 JSON-RPC 进行通信,支持通过 MCP.json 配置或代码属性进行注册与启动,具备会话管理、能力声明与多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。

AI与计算

Remembrance Oracle Toolkit MCP Server

基于 Model Context Protocol(MCP) 的后端服务器实现,提供以 JSON-RPC 2.0 方式向 AI 客户端暴露资源管理、工具注册/执行以及可渲染的 Prompt 模板等能力,并支持多传输协议(如 STDIO、WebSocket、SSE),实现会话管理与能力声明,用于为 LLM 应用提供结构化的上下文服务与外部功能入口。

AI与计算

QMatSuite MCP Server

基于 Model Context Protocol (MCP) 的后端服务器, provide 资源管理、工具注册与执行、以及 Prompt 模板的定义/渲染,并通过 JSON-RPC 与 LLM 客户端进行通信。服务器负责会话管理、能力声明,并支持扩展的传输协议(如 STDIO、SSE、WebSocket),用于向大语言模型应用提供标准化的上下文信息、数据访问、和外部功能调用能力。该仓库实现了完整的 MCP 服务器端能力,包含资源、工具、知识库、演示/demo、以及多工具链的整合。

开发者工具

Keyboard MCP Server

基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行,以及 Prompt 模板渲染等 MCP 核心能力,支持 Stdio、SSE、WebSocket 等传输模式并以 JSON-RPC 形式与客户端通信。

AI与计算

Vestige MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供资源管理、工具执行和 Prompt 渲染等上下文服务,支持 JSON-RPC 通信与多传输通道(此实现以标准输入/输出(stdio)为通信介质)并实现了初始化、工具与资源查询等核心功能。

开发者工具

Bitbucket-CLI MCP 服务器

基于 Model Context Protocol 的 MCP 服务器端实现,提供 Bitbucket CLI 的资源、工具注册与执行能力,供 LLM/AI 客户端通过 JSON-RPC 调用并获取上下文信息和功能。

网页与API

git-mcp-rs

基于模型上下文协议(MCP)的后端服务器实现,提供对 GitHub 数据的上下文服务。通过标准输入输出的 JSON-RPC 方式,支持读取并管理 GitHub 仓库数据的工具集,如获取标签、变更日志、README、文件树、特定文件内容以及代码搜索,供大型语言模型(LLM)客户端调用。

AI与计算

ChatML MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,使用 Claude Agent SDK 构建并暴露资源、工具及提示模板,通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议并具备会话和能力管理能力。

AI与计算

PulseMCP MCP Servers

基于 Model Context Protocol (MCP) 的后端服务器模板与实现集合,提供资源管理、工具注册与执行、提示模板渲染,以及通过 JSON-RPC 与 MCP 客户端进行通信的完整服务器框架与示例。包含可运行的服务器入口、资源与工具实现模板,以及对 Google 日历、Gmail 等服务的实验性扩展。

网页与API

OpenChrome MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型(LLM)客户端以标准化的 JSON-RPC 方式提供资源管理、工具注册/执行以及可自定义的 Prompt 模板渲染,具备会话管理、并发浏览上下文、以及对多传输协议的支持,便于在浏览器自动化场景中提供安全、可扩展的上下文服务。

网页与API

Demarkus MCP 服务端

基于 Mark Protocol 的 MCP 服务器实现,向大型语言模型客户端以标准化方式暴露读取资源、执行工具、以及渲染提示模板等能力,并通过 JSON-RPC 进行通信。

AI与计算

Sub-Agents MCP Server

基于 Model Context Protocol 的后端服务器,向 MCP 客户端暴露工具、资源与提示模板,支持执行子代理、资源读取与会话管理,提供安全、可扩展的上下文服务。

AI与计算

JaguarClaw MCP 服务器端

基于 Java Spring Boot 的 MCP 服务器实现,提供资源托管、工具注册与执行、提示模板渲染等能力,遵循 Model Context Protocol,支持 JSON-RPC 形式的请求/响应,并通过多种传输方式(如 STDIO/SSE/HTTP)与 LLM 客户端进行上下文服务交互。

AI与计算

pai MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务端实现,提供对资源、工具和提示模板的标准化管理与访问,支持与大语言模型客户端通过 JSON-RPC 进行交互,并定义不同传输方式(如 StdIo、SSE 等)以供 LLM 应用接入。仓库中包含完整的 MCP 服务入口、19 个工具实现及集成示例,具备可运行的服务器端代码。<br>核心功能包括:托管资源与知识、注册并执行工具、渲染 Prompt 模板、以及会话与能力声明管理等。

网页与API

Local Deep MCP Server

基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,供 LLM 客户端通过标准化的 JSON-RPC 进行资源读取、工具调用与提示渲染。实现了多传输协议(如 STDIO、SSE、WebSocket)下的通信,具备会话管理与能力声明,旨在为本地化的上下文服务与推理工作流提供结构化的后端支撑。

开发者工具

gws MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,提供 Google Workspace API 的工具集并通过 JSON-RPC 以标准化方式与 MCP 客户端通信,支持工具注册、执行调用、会话管理与多种传输场景(如 STDIO)。

AI与计算

COEIRO Operator MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册/执行、以及提示模板等功能,通过 JSON-RPC 与客户端交互,支持标准传输(如 Stdio)并可扩展为多种传输方式,适用于向 LLM 客户端提供上下文和外部功能接入能力。

网页与API

Promptry MCP 服务端

基于 Model Context Protocol(MCP)的后端实现,提供资源、工具和提示模板的管理与执行,并通过 MCP JSON-RPC 规范与语言模型客户端进行通信,支持将上下文服务、安全检测和评估功能以工具形式暴露给 LLM 代理。

AI与计算

Keep MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器实现,聚焦向 LLM 客户端以标准化方式提供上下文资源、可执行工具、以及可定制的 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明并提供多传输协议(如 Stdio、SSE、WebSocket),实现资源托管、工具注册与执行、以及 Prompts 的定义与渲染,旨在为 AI 代理/应用提供安全、可扩展的上下文服务框架。

开发者工具

CSharpMCP Roslyn-based MCP Server

基于 Model Context Protocol 的 MCP 服务器,利用 Roslyn 提供对 C# 项目的语义分析与工具能力,并通过 JSON-RPC 方式与 LLM 客户端交互,支持标准化的资源管理、工具执行与提示渲染,适用于向 LLM 客户端提供上下文信息与分析能力的后端服务。

网页与API

Huly MCP服务器

基于 Model Context Protocol 的后端服务器实现,提供资源、工具与提示模板的统一上下文服务,支持多传输协议(stdio、HTTP 等)并通过 JSON-RPC 与 LLM 客户端通信,适用于 Huly 集成场景。

AI与计算

AigoHotel MCP 服务器

AigoHotel 基于 Model Context Protocol (MCP) 的后端服务,提供酒店搜索、酒店详情与标签等工具,通过 JSON-RPC 与客户端交互,供 AI 助手获取上下文信息与功能。

开发者工具

AIBot MCP Server Framework

基于 Model Context Protocol (MCP) 的后端服务器实现,能够托管资源、注册并执行工具、定义并渲染 Prompt 模板;通过 JSON-RPC 提供跨语言/跨进程的上下文服务,并支持多传输协议、会话管理与能力声明,适配 LLM 客户端的上下文服务需求。

AI与计算

mcpx MCP 服务器实现与管理框架

基于模型上下文协议(MCP)的后端服务器实现,提供资源与工具的托管与管理、提示模板渲染,以及通过 JSON-RPC 与客户端进行的数据交互,支持守护进程模式、会话管理和多传输通道,适用于将 MCP 服务暴露给大型语言模型(LLM)客户端的场景。

AI与计算

Vivid MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,将 LLM 客户端通过 JSON-RPC 接入 Vivid 运行时的控制接口,以统一管理资源、注册与执行工具,以及渲染与获取 Prompt 模板,提供对三域运行(GPU/GPU 纹理、音频、控制信号)的上下文服务。

AI与计算

AgentChatBus

基于 Model Context Protocol(MCP)的后端服务器实现,实现资源、工具、提示模板的统一管理与渲染,并通过 JSON-RPC/MCP 接口向 LLM 客户端提供上下文与能力,支持 HTTP+SSE 传输以及 stdio 模式的后端交互,内置会话管理与网页控制台,使用 SQLite 作为运行时状态存储。

AI与计算

Maiat MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、Prompt 模板等上下文信息的注册、管理与对外服务,通过 JSON-RPC 与 MCP 客户端通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,面向 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

WebAI-MCP

基于模型上下文协议(MCP)的本地后端服务器,向大语言模型客户端提供结构化的浏览器上下文、工具和提示模板,并通过 JSON-RPC 进行通信。实现了资源、工具、提示模板的托管、注册与渲染,以及会话管理和跨传输协议的支持,适用于在本地环境中为 LLM 客户端提供可扩展的上下文服务。

AI与计算

VibesRails MCP 服务器

基于模型上下文协议(MCP)的后端实现,作为 MCP 服务器向 LLM 客户端提供上下文信息、资源与工具,并支持提示模板的渲染与执行。通过 JSON-RPC 与客户端通信,提供资源读取、工具调用、Prompt 获取等能力,支持会话管理、能力声明以及多传输协议(如 stdio)的扩展性上下文服务框架。

网页与API

LinkedIn Sales Navigator MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 LinkedIn Sales Navigator 的资源访问、工具调用和提示模板等能力。通过 JSON-RPC 方式与 MCP 客户端通信,支持标准的 stdio 传输,内部实现了完整的 MCP 服务端框架与客户端封装,能够在服务端执行多种与 LinkedIn 相关的操作任务并对外暴露为可重用的工具集合。

AI与计算

Xenobot MCP 服务器

基于 Model Context Protocol 的后端实现,提供资源托管与访问、工具注册与执行,以及面向 LLM 的 JSON-RPC 通信,并通过 WebSocket、SSE 与 HTTP 传输协议与客户端交互。

网页与API

2020117 MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具、 Prompts 的标准化管理与查询,并通过 JSON-RPC 与 MCP 客户端进行交互,支持多传输通道(如标准输入/输出、WebSocket、SSE),为 AI 代理提供上下文、数据访问和外部功能调用能力。

开发者工具

Aegis MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供对本地 Aegis Agent Kit 的 MCP 接口,允许对实例管理、秘密、工具调用等功能进行统一的 JSON-RPC 访问,并与本地 aegisd/Aegis 运行时无缝协作以驱动 LLM 客户端的上下文能力获取与任务执行。

AI与计算

Open-Hivemind MCP Server

基于 Model Context Protocol(MCP)的后端服务器,聚合资源、工具与提示模板,提供标准化的 JSON-RPC 接口与会话管理,支持多传输协议以向大语言模型客户端提供上下文与功能能力。

网页与API

LibScope MCP Server

基于 Model Context Protocol (MCP) 的本地知识库后端服务器,提供资源管理、工具注册与调用、提示模板渲染等能力,并通过 JSON-RPC 与 MCP 客户端通信,支持多种传输协议以便与大语言模型进行安全、可扩展的上下文服务交互。

开发者工具

Cass Memory MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务,提供资源管理、工具注册与执行,以及提示模板渲染,通过 JSON-RPC 与 LLM 客户端进行交互,并支持本地化部署与多种传输方式。

AI与计算

PeeperFrog Create MCP 服务器

基于 Model Context Protocol (MCP) 的本地化后端服务集合,提供资源管理、工具注册与执行,以及 Prompts 渲染等能力,面向 LLM 客户端通过 JSON-RPC 进行标准化上下文与功能访问,并支持多种传输路径与安全部署。该仓库实现了 Image 生成和 LinkedIn 发布等 MCP 服务的服务端逻辑,与 Claude 等客户端进行无缝集成。

AI与计算

oh-my-codex MCP 服务端集合

基于 Model Context Protocol(MCP)的后端服务器集合,为 OpenAI Codex 及其生态中的多代理系统提供资源管理、工具执行、提示模板等统一的上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输通道(如 STDIO)。

AI与计算

VellaVeto MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 客户端的上下文与能力提供者,托管资源、注册并执行工具、定义与渲染 Prompts,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 stdio、HTTP、WebSocket)等能力,附带可审计的合规证据与安全保障。该实现定位为 MCP 服务器端架构,适合将 LLM 客户端接入到受控的工具与资源生态中。

网页与API

Claudezilla MCP 服务器

基于 Model Context Protocol 的本地 MCP 后端,为 Claude Code 提供浏览器自动化的资源、工具与提示模板服务。通过本地 Unix 套接字与原生主机通信,支持 JSON-RPC 的工具调用与响应,并实现会话管理、扩展工具集、以及多传输协议的通信能力,适用于在本地 Firefox 环境中为 LLM 客户端提供上下文信息与功能。

AI与计算

Obsidian-Memory MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,支持以 JSON-RPC 方式与运行在标准输入/输出、SSE、HTTP 的客户端进行通信。它将 Obsidian 笔记库与快速查询/推理功能整合,为 LLM 客户端提供安全、可扩展的上下文和功能接口。

网页与API

Prevision MCP Server

基于模型上下文协议(MCP)的后端服务器,实现资源、工具与提示的注册、执行与渲染,并通过 JSON-RPC/HTTP 与客户端通信,提供多租户、RBAC、RAG 集成等能力,支持多传输方式的上下文服务框架。

网页与API

Advanced Memory MCP

面向 LLM 客户端的高性能MCP服务器,实现资源管理、工具注册与执行、以及Prompt渲染,通过JSON-RPC进行通信,支持多传输协议和可扩展生态。该仓库不仅提供MCP服务器端实现,还包含与前端Web应用的桥接组件和多种工具集合。

AI与计算

Plandb MCP 服务端

基于 Model Context Protocol (MCP) 的 Rust 实现,作为后端服务器提供以标准化方式向 LLM 客户端暴露上下文、资源、工具与 Prompt 的能力。通过 STDIO JSON-RPC 提供 MCP 服务器核心功能,支持会话管理、能力声明和工具调用等,并集成 CLI、HTTP 等多接口入口,便于在本地或嵌入式环境中实现多模型协作场景下的任务上下文服务。

网页与API

pubmed-mcp-server

基于 Model Context Protocol (MCP) 的 PubMed 资源与工具服务端,提供资源托管、工具注册与执行、以及可渲染的 Prompt 模板,支持通过标准的 JSON-RPC 与客户端进行上下文与功能交互,支持_stdio/HTTP/Cloudflare Workers 等传输方式,便于将 PubMed 的数据与检索能力暴露给大型语言模型进行查询、分析与生成。

AI与计算

CrestApps.OrchardCore MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义和渲染等功能,通过 JSON-RPC 与 LLM 客户端进行上下文信息和能力的交互,同时支持多种传输协议以实现安全、可扩展的上下文服务框架。

AI与计算

Cloto MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端框架与一系列可运行的 MCP 服务器实现,提供资源、工具、提示模板的统一管理,并通过 MCP JSON-RPC 机制向本地或远端的 LLM 客户端渲染上下文与功能。

AI与计算

MyCircle MCP 服务器(基于 Claude Code 的 Model Context Protocol 集成实现)

基于 Model Context Protocol (MCP) 的后端服务,提供工具注册与执行、资源管理以及与客户端的 JSON-RPC 通信能力,支持多种传输场景并可在无服务器环境中以内存传输方式运行,适用于将 LLM 与外部功能无缝对接的后端上下文服务框架。

AI与计算

Conductor MCP Server (STDIO)

基于 Model Context Protocol (MCP) 的服务器实现,提供资源与工具暴露、提示模板渲染等能力,并通过 STDIO 进行 JSON-RPC 风格的通信,方便 LLM 客户端以统一方式读取资源、调用工具、获取提示模板等上下文信息。

AI与计算

keephive

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源存储、工具注册与执行、以及 Prompt 模板的管理与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 StdIO、SSE、WebSocket),为大语言模型在应用中的上下文服务提供完整的 MCP 服务端能力。

AI与计算

AGENR MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,作为 LLM 客户端的上下文与能力提供者。该仓库实现了 MCP 服务器核心功能,包括资源(Resources)的托管与访问、工具(Tools)的注册与执行、Prompt 模板的定义与渲染,以及通过 JSON-RPC 与客户端的通信,支持多种传输通道(如标准输入输出、SSE、WebSocket),并具备会话管理与能力声明能力,用于提供安全、可扩展的上下文服务。

网页与API

svelte-grab MCP 服务端

基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,提供向 MCP 客户端暴露 HTTP/StreamableHTTP 传输的 MCP 接口,以及可选的 stdio 传输,支持从浏览器端抓取的组件上下文实时供 Claude Code 等 MCP 兼容代理读取,并提供多种 MCP 工具(读取元素上下文、撤销/重做、会话历史、可及性与渲染分析等)的访问入口。

AI与计算

AuraSDK MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端进行通信,支持纯 Python 实现与 Rust 实现的双版本 MCP 服务端,适用于 Claude Desktop 等 MCP 客户端场景。

桌面与硬件

Sublime Claude MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供 MCP 请求的处理、JSON-RPC 响应、工具路由与上下文资源管理等能力,用于在 Sublime Text 编辑器中让 LLM 客户端通过 MCP 进行上下文供给、工具调用与提示模板渲染等交互。

AI与计算

SideButton MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向大语言模型(LLM)客户端提供资源、工具注册与执行、以及可自定义的 Prompt 模板等上下文能力,并通过 JSON-RPC/ SSE/ stdio 等传输协议进行交互,适用于在浏览器、终端或应用中集成上下文服务。

AI与计算

MemOS MCP 服务端

基于 Model Context Protocol (MCP) 的本地后端实现,提供资源(Resources)托管与管理、工具(Tools)注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 的 MCP 协议与客户端通信,当前实现以 STDIO 传输为主,支持后续扩展的传输协议。

AI与计算

RagOps MCP 服务集合

基于模型上下文协议(MCP)的后端服务器集合,提供托管资源、注册并执行工具、定义与渲染提示模板等能力,并通过 JSON-RPC 与客户端通信。该仓库实现了多台内置 MCP 服务器以及一个统一的 MCP 服务端,支持本地(stdio)、WebSocket/SSE 等传输协议的扩展上下文服务框架,适用于将大模型客户端接入到后端资源、工具与提示模板的强大上下文服务。

AI与计算

Adjutant MCP 服务器

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源管理、工具注册/执行、Prompts 渲染等能力,采用 JSON-RPC 与客户端进行通信,支持 SSE/WebSocket 等传输模式,供 LLM 客户端获得上下文与外部功能访问。

开发者工具

Flyto-core MCP 服务器实现

基于 Flyto-core 的 MCP 服务器实现,提供资源与工具的标准化注册与管理、Prompt 模板定义,以及通过 JSON-RPC 与客户端进行交互的服务端核心功能。支持会话管理、能力声明,并可通过多种传输协议(如 STDIO、HTTP、SSE、WebSocket)进行上下文服务提供,面向 LLM 客户端的上下文数据、工具调用和提示渲染等能力。

AI与计算

Edge Trade MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具调用与上下文渲染,供大语言模型客户端通过 JSON-RPC 进行高效、可扩展的上下文服务访问。

AI与计算

FrankenTerm MCP 服务器

基于 ft 的 MCP 后端实现,通过标准的 JSON-RPC 向 LLM 客户端提供 Resources、Tools、Prompts 等上下文信息与功能,以及会话与能力管理,支持多传输协议(如 StdIO/SSE/WebSocket),以实现面向大语言模型的上下文服务后端。

网页与API

Kiln MCP 服务器

Kiln 是一个基于 Model Context Protocol 的 MCP 服务器端实现,负责向 LLM 客户端以标准化方式提供上下文信息、资源访问、工具注册与执行,以及提示模板渲染,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议,适配多种打印后端与外部服务。

AI与计算

AnviLLM MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供 JSON-RPC 接口用于注册与执行工具、管理资源与会话,并通过 9P 文件系统暴露资源接口,支持安全的代码执行工具与跨后端协作。

AI与计算

SpaceMolt Crafting MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 SpaceMolt 相关的资源、工具与提示模板,并通过 JSON-RPC 的机制实现对资源、工具、提示等的标准化访问与渲染。

AI与计算

Dexto MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输协议并实现会话管理与能力声明。

AI与计算

Codebase City MCP Server

基于 MCP 的服务端实现,提供资源查询与外部工具执行能力,面向 LLM 客户端以标准化的 JSON-RPC 方式暴露对代码图谱的访问与分析工具,并通过后端 REST API 与 UI 进行交互与通知,支持与 Claude/Cursor 等兼容代理协作的场景。

AI与计算

NeuralMemory MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的服务器实现,提供资源、工具、提示模板等的统一托管、注册与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(标准输入/输出、Server-Sent Events、WebSocket),为大语言模型客户端提供安全、可扩展的上下文服务框架。

AI与计算

DJ Claude MCP 服务器

基于 Model Context Protocol(MCP) 的后端实现,提供资源管理、工具注册与执行、Prompt 模板渲染等能力,支持通过标准输出(stdio)和HTTP传输实现多代理协作音乐生成的 JSON-RPC 服务。

AI与计算

Claude Code Studio MCP 服务器端实现

一个基于 MCP(Model Context Protocol)的后端服务,提供资源、工具与提示模板的标准化管理,并通过 JSON-RPC 与 Claude Code Studio 客户端交互,支持会话管理、技能/资源渲染以及远程执行等多种能力。

网页与API

Vincent MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器端提供对外的上下文服务。核心职责包括托管与管理资源(Resources)、注册与执行工具(Tools),以及定义与渲染 Prompt 模板,支持与 LLM 客户端通过 JSON-RPC 进行交互。服务器实现了 MCP 的核心接口(如 initialize、tools/list、tools/call),并通过 Bearer API key 进行鉴权、会话管理与策略检查,提供基本的 JSON-RPC 请求处理和响应。代码基于 Node.js + TypeScript,使用 Express 路由挂载在 /mcp 路径,并结合 Prisma 管理数据。

AI与计算

Git-Gud MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,提供通过 JSON-RPC 与 LLM 客户端交互的能力,用于暴露并管理“堆叠差分”工作流的资源、工具、提示模板等上下文信息,支持多种传输方式(此实现以标准输入/输出作为传输)。

AI与计算

TaxPilot — Intelligent Context MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端提供资源、工具和 Prompts,并通过 JSON-RPC/SSE 等协议实现统一的上下文服务与对话管理。

开发者工具

CLEO MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与数据访问、工具(Tools)的注册与执行、以及提示模板(Prompts)的定义与渲染;通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明与多传输通道,构建面向LLM应用的可扩展上下文服务框架。

AI与计算

JARVIS Turbo MCP 服务器

基于 Model Context Protocol (MCP) 的分布式后端实现,作为 LLM 客户端的上下文与能力服务中心,提供资源管理、工具注册与执行、Prompt 模板渲染等能力,并通过 JSON-RPC 方式进行通信;包含多节点架构、会话与能力声明,以及对 Stdio、SSE、WebSocket 等传输协议的支持,适配多种 LLM 应用场景。

AI与计算

Athena MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管与访问、工具注册与执行、以及 Prompt 模板的渲染与管理;通过 JSON-RPC 方式与客户端通信,支持多传输协议(如标准输入输出和 SSE),实现会话管理、能力声明与权限控制,面向 LLM 客户端提供可扩展、可审计的上下文服务框架。

开发者工具

Nightshade MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,作为 Nightshade 引擎的一部分在本地启动并提供资源管理、工具执行与 prompts 渲染等能力,允许对运行中的场景进行实时上下文操作,并通过 HTTP JSON-RPC 与 Claude 等 MCP 客户端通信。

AI与计算

Loom MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持本地或混合模型的上下文服务和执行能力。该仓库包含可运行的服务器端实现及相关集成组件,不仅是客户端示例或测试代码。

开发者工具

mcp-beam

基于 Model Context Protocol (MCP) 的后端服务器实现,提供将资源、工具和提示模板以标准化 JSON-RPC 形式暴露给 LLM 客户端的能力。当前实现通过标准输入输出(stdio)接入 MCP 主机,支持本地设备发现、媒体流/投射工具,以及会话管理,具备完整的 MCP 服务器核心功能与运维能力。

开发者工具

MCP Observer / WebMCP Server — 基于 MCP 的后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板等能力的注册、执行与渲染,并通过 JSON-RPC 与 MCP 客户端通信;核心组件包含一个可运行的 MCP 服务器、能力注册与同步、以及与 GUI 后端的桥接,使 LLM 客户端能够以标准化方式获取上下文数据、调用外部工具与渲染 Prompt。

AI与计算

Copilot MCP Wrapper 服务器

基于 JSON-RPC 的多客户端 MCP 服务器代理与 zombie 守护进程,管理本地 MCP 服务器并实现动态工具发现,为 LLM 客户端提供统一的上下文与功能入口。

AI与计算

Vectrix MCP Server

MCP 协议实现的后端服务器,基于 Vectrix 提供时间序列预测相关的资源、工具与 Prompt 模板,并通过 JSON-RPC 与 AI 客户端进行通信,支持多传输协议与会话管理。

AI与计算

Magus 浏览器使用型 MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供浏览器自动化相关资源与工具的注册与执行能力,并支持通过 JSON-RPC 与 LLM 客户端进行交互,提供会话管理、能力声明以及多传输协议支持,作为后端上下文服务供 LLM 使用。

AI与计算

AgentGate MCP 服务端

基于模型上下文协议(MCP)的后端实现,提供资源、工具和提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持流式传输与子进程传输,并能与 Claude Desktop 等 MCP 客户端无缝对接。

AI与计算

Autonomous MCP 后端服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供标准化的上下文资源、工具注册与执行能力,以及可定制的 Prompt 模板渲染;通过 JSON-RPC 进行通信,包含会话管理、能力声明,且支持多种传输协议(如 STDIO、SSE、WebSocket),为代码基地级别的上下文服务提供端到端的后端能力。

开发者工具

CodeDB MCP 服务器

基于 Model Context Protocol 的高性能 MCP 服务器,使用 Zig 实现,提供资源管理、工具执行、Prompts 渲染等能力,并通过 JSON-RPC 与客户端通信,支持多种传输模式,面向 LLM 客户端提供上下文与功能服务。

AI与计算

bitbank-genesis MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与 Prompt 的后端服务,向 LLM 客户端(如 Claude)以标准化 JSON-RPC 方式交互,支持 STDIO、SSE/WebSocket 及 HTTP 传输,提供比特币市场分析相关的分析工具和可视化能力。

AI与计算

Phylactery MCP Gateway

基于模型上下文协议(MCP)的多服务器聚合网关实现,将多个 MCP 服务器的工具能力整合在一个统一的 MCP 服务端,通过 JSON-RPC 与客户端通信,提供合并后的工具集合、工具调用分发以及初始化/通知等能力。

AI与计算

Nevermined Payments MCP 服务器

基于 Nevermined Payments 的 MCP 服务器实现,为大型语言模型客户端提供资源、工具、提示等上下文能力的标准化服务。通过 JSON-RPC 与客户端通信,处理请求/响应,包含会话管理、能力声明,并支持多种传输方式与安全认证机制,便于搭建安全、可扩展的上下文服务平台。

AI与计算

Claude Context Optimization MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供上下文优化与工具执行能力,供 LLM 客户端通过标准化的 JSON-RPC 接口读取资源、注册并执行工具、以及渲染和获取优化后的 Prompt,基于 stdio 传输模式实现 MCP 的核心通信。

AI与计算

Forge MCP 服务器(Forge Orchestrator MCP 服务)

基于 Model Context Protocol(MCP)的服务器实现,作为 Forge Orchestrator 的后端,向大语言模型客户提供资源访问、工具注册/执行与 Prompt 渲染等能力;通过 JSON-RPC 在标准输入输出(stdio)上与客户端通信,包含会话管理、能力声明,并支持多种传输方式的扩展。该仓库提供完整的 MCP 服务端实现、协议定义及与工具适配器的集成,具备可运行的服务器代码和集成测试。

AI与计算

MCP Boilerplate Rust

基于 Model Context Protocol (MCP) 2025-11-25 规范的多传输 MCP 服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,支持通过 JSON-RPC 与客户端通信,涵盖 stdio、HTTP/SSE、WebSocket、gRPC、HTTP streaming 等传输模式,具备会话管理与观测能力。

AI与计算

MCPLS - MCP 到 LSP 桥接服务器

基于 Model Context Protocol 的 MCP 服务器实现,将语言服务器(LSP)的能力暴露为 MCP 工具,提供诊断、引用/定义/悬停、完成、文档符号、格式化等多种工具,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多协议传输的扩展框架。

AI与计算

t402 MCP 服务器

基于 MCP 的后端服务器,用标准化的 JSON-RPC 形式向 LLM 客户端暴露资源、工具和提示模板的注册、执行与渲染能力,并通过 交易所需的支付流程(402 协议)完成资源访问与工具调用的权限控制。

网页与API

KeepGPU MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,提供 JSON-RPC 和 HTTP REST 接口,用于向 LLM 客户端以标准化方式提供资源管理、工具注册/执行及提示渲染等能力,并支持会话管理、跨传输协议通信(如 stdio、HTTP)、以及仪表盘等扩展功能。

AI与计算

PDF Oxide MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供对 Resources、Tools 和 Prompts 的标准化托管与交互,客户端通过 JSON-RPC 与服务器通信,支持会话管理、能力声明,以及多种传输协议扩展。仍需配合仓库中的客户端进行使用。

AI与计算

mcp-front

基于 Model Context Protocol (MCP) 的后端网关实现,作为 MCP 服务器的前端网关,提供对资源、工具和提示模板的托管与渲染,支持 JSON-RPC 通信、会话隔离及多传输协议(如 STDIO、SSE、HTTP 流等)的接入,旨在为 LLM 客户端(如 Claude)提供统一、可扩展的上下文服务。

AI与计算

PRISM MCP 服务器

基于 Model Context Protocol 的后端服务,暴露 PRISM 的资源、工具和提示模板等功能,使用 JSON-RPC 通过多种传输(本仓库默认 stdio)与 LLM 客户端进行通信。

桌面与硬件

Android 远程控制 MCP 服务器

在 Android 设备上运行的 MCP 服务器,提供资源管理、工具调用与提示模板的上下文服务,通过 JSON-RPC/HTTP(S) 与 AI 客户端进行交互,实现对设备的远程控制与上下文提供。

AI与计算

Coding Friend Learn MCP Server

基于 MCP(Model Context Protocol)的服务端实现,提供学习文档资源托管、文档查询/读写以及知识追踪等工具,供不同行业的 LLM 客户端通过 JSON-RPC 进行交互和扩展。

AI与计算

oh-my-claudecode

基于 MCP(Model Context Protocol)的后端服务体系,面向 Claude Code 等 LLM 客户端提供标准化的上下文资源、工具执行与提示模板管理,并通过 JSON-RPC 进行通信,支持多种传输通道与会话能力。

AI与计算

Raven MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器实现,作为 Raven 的后端服务,通过 JSON-RPC 2.0 向 LLM 客户端暴露资源、工具和提示模板等上下文能力,支持将 Raven CLI 作为工具执行、资源与对象的查询与管理,并为 agent 与工具链提供统一的上下文服务。

AI与计算

Moltis MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具管理、提示渲染、以及通过 JSON-RPC 与客户端通信,支持 STDIO 与 SSE 传输并集成认证/授权与会话管理等完整后端能力。

AI与计算

Boucle Broca MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,暴露 Boucle 框架中的 Broca 存储和工具执行能力,支持标准 JSON-RPC 通信,当前实现以 stdio 传输为主,便于与 Claude/其他 MCP 客户端进行多智能体协作与上下文共享。

AI与计算

Quackback MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器端实现,向大语言模型客户端提供资源、工具与提示模板等上下文服务,并通过 JSON-RPC 进行通信,包含认证、会话管理与多种传输能力,适用于在本地自托管环境中为智能代理提供上下文与外部功能调用能力。

AI与计算

Nano-Coder MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端通信以支持多种传输协议。

AI与计算

Paseo MCP服务器实现

基于 Model Context Protocol(MCP)的后端服务实现,作为LMM客户端的上下文与能力提供者:承载并管理资源、注册与执行工具、定义与渲染 Prompt 模板;通过 JSON-RPC 在多种传输通道(如 WebSocket/Stdio/SSE 等)上与客户端通信,实现会话管理、能力声明与安全扩展的上下文服务框架。

AI与计算

GuardKit MCP Server (Python 模板实现)

基于模型上下文协议(MCP)的后端服务器模板,提供资源托管、工具注册与执行、以及 Prompt 模板渲染能力;通过 JSON-RPC 与客户端通信,支持多传输模式(如 StdIO、SSE、WebSocket),适用于为大语言模型(LLM)提供上下文数据与外部功能访问。

开发者工具

Pare MCP 服务器集成平台

Pare 是一个面向开发者的 MCP 服务器集合,提供资源、工具和提示模板的结构化 JSON-RPC 接口,供大语言模型客户端以标准化方式获取上下文、数据访问与外部功能调用能力。

AI与计算

Live CSS Editor MCP Bridge

基于 Model Context Protocol (MCP) 的后端服务,将 Live CSS Editor 作为 MCP 服务器,向 LLM 客户端提供 Resources、Tools、Prompts,并通过 JSON-RPC 与客户端通信,支持资源管理、工具执行、以及模板渲染等能力,适配多传输协议和会话管理。

AI与计算

SecureYeoman MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源托管、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 stdio、SSE、WebSocket),实现自托管的上下文服务框架。

AI与计算

McpVanguard MCP 安全代理服务器

一个基于 Model Context Protocol(MCP)的服务器实现,充当人工智能代理与实际 MCP 服务器之间的拦截与保护层。通过 JSON-RPC 处理工具调用,请求与响应,整合规则引擎、语义分析、行为分析,并可将被阻断的请求上报至 VEX 审计系统,提供可扩展、可观测的 MCP 服务后端。

AI与计算

tome MCP 服务器

基于 Tome 实现的 Model Context Protocol (MCP) 服务器,实现对技能库的查询与读取能力。服务器通过 JSON-RPC 规范在标准输入输出(STDIO)通道上与 MCP 客户端通信,提供 list_skills 列出所有技能、read_skill 读取指定技能的 SKILL.md 内容等功能,支持在配置中自动发现技能、将技能暴露给 LLM 客户端使用,并确保路径安全边界与版本兼容性。

网页与API

Cubis Foundry MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板渲染,支持多传输协议与多会话的上下文服务,供 LLM 客户端通过 JSON-RPC 调用获取上下文与能力。

AI与计算

Crypto Vision MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,作为 LLM 客户端的上下文与能力服务中心,提供资源管理、工具注册与执行,以及 Prompt 模板的定义与渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)实现灵活的上下文服务与扩展能力。

通信与社交

Disclaude Feishu MCP 服务器(stdio 实现)

基于模型上下文协议(MCP)的 Feishu/Lark MCP 服务器实现,提供 send_user_feedback、send_file_to_feishu、update_card、wait_for_interaction 等工具,通过 JSON-RPC 2.0 与客户端进行通信,并通过标准输入输出(stdio)实现传输,与 Claude Agent SDK 的工具集无缝衔接,支持会话管理与多工具渲染。

AI与计算

MetriLLM MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染能力,通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 StdIO/SSE/WebSocket)以在本地模型对话中提供统一的上下文服务。

网页与API

SupaCloud MCP Server

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具注册/执行、Prompt 模板渲染等功能,通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)以及会话管理与能力声明,用于为大模型/代理提供可扩展的上下文与外部操作能力。

AI与计算

RemNote MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,作为后端服务向 AI 客户端提供 RemNote 资源、工具以及提示模板的访问与执行能力。通过 JSON-RPC 形式与客户端通信,支持 HTTP 与 WebSocket 双通道并发会话管理,桥接 RemNote 插件实现的资源操作与外部 AI 行为。作为 RemNote Automation Bridge 的服务端组件,完整实现了 MCP 的基本功能与流程。

AI与计算

Jaz AI MCP 服务端

基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源、工具与提示模板等上下文服务,并通过标准的 JSON-RPC 串行化与客户端交互,支持 STDIO 传输。

AI与计算

Bacchus VINE MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,为大语言模型客户端以标准化方式提供 VINE 任务图的资源、工具和提示模板;通过 JSON-RPC 进行通信,支持多传输方式(如 StdIO、SSE、WebSocket),并实现会话管理、能力声明及对 vine 文件的读写/扩展能力。

AI与计算

Cortex MCP 服务器端(Memory Bank 上下文管理服务器)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的渲染与渲染管理,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的扩展,以为大语言模型客户端提供结构化的上下文与功能服务。

AI与计算

Amadeus-QQ-MCP

基于 Model Context Protocol (MCP) 的 QQ 端上下文服务后台,使用 NapCatQQ(OneBot v11)实现 MCP 服务器,提供资源、工具与提示相关的上下文管理与操作能力,支持 JSON-RPC 交互、标准化的工具调用、历史回填与消息分段发送等功能。

开发者工具

REVIT MCP 服务器端实现

基于 Model Context Protocol (MCP) 的 Revit MCP 服务器端实现,提供 MCP 服务、工具注册与执行,并通过 WebSocket/StdIO 与 Revit Add-in 进行命令传输与执行,支持通过 LLM 客户端调用 Revit API 的工具与资源,形成面向 AI 的上下文与功能服务端。

AI与计算

GemiHub MCP Server Backend

基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具与提示模板的托管与管理,并通过 JSON-RPC 提供对外访问,供 LLM 客户端检索资源、调用工具、渲染提示并进行会话管理与能力声明。

开发者工具

AgentDecompile MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供上下文资源、可注册/执行的工具,以及可渲染的提示模板,采用 JSON-RPC 与客户端通信,并支持多种传输协议(stdio、HTTP 流式、SSE/WebSocket)以实现安全、可扩展的上下文服务。

AI与计算

Agent-Sandbox MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,提供沙箱资源管理、工具注册执行和提示模板渲染等功能,并通过 JSON-RPC 与 LLM 客户端通信。

AI与计算

OGrid MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,用于向 LLM 客户端以标准化方式提供 OGrid 的资源、工具与提示模板,并支持文档索引、桥接测试以及 IDE 集成的实时交互能力。

开发者工具

Fray MCP 服务器

基于 Fray 的 MCP(Model Context Protocol)实现的后端服务器,将 payload 数据、WAF 指纹和 CVE 细节以工具形式暴露给 AI 助手调用,支持通过 JSON-RPC 与客户端通信,提供工具注册、资源管理和会话上下文能力,便于在 AI 工作流中进行上下文驱动的安全测试与结果分析。

AI与计算

CodingBuddy MCP 服务器

基于 Model Context Protocol 的后端服务器实现,用于以标准化方式向 LLM 客户端提供上下文信息与功能:托管资源、注册与执行工具、定义与渲染 Prompt 模板,且通过 JSON-RPC 与客户端通信,支持多种传输协议并具备会话管理能力。

AI与计算

PromptWheel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文信息托管和功能调用,支持会话管理与跨会话记忆,面向自动化代码与软件工程场景的上下文服务框架。

AI与计算

Helios Studio MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,面向大语言模型客户端提供标准化的上下文服务。核心职责包括托管与管理资源、注册和执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与客户端进行通信。具备资源/工具/提示的托管、会话管理、能力声明,以及对多传输协议的支持(如 Stdio、SSE、WebSocket)等能力。

AI与计算

Remnant MCP 服务器

基于 Remnant 的 JSON-RPC 2.0 MCP服务器实现,向 Claude Code 等 MCP 客户端暴露内存检索、内存记录、代理执行任务与技能执行等工具接口,并提供内置的内存提示/模板渲染能力。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多通道传输(HTTP/SSE/WebSocket),为 LLM 应用提供标准化的上下文与功能服务。

AI与计算

Epguides MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行,以及可通过 JSON-RPC 2.0 与 LLM 客户端交互的接口,支持将电视剧集数据、查询工具和资源以标准化方式暴露给 AI 助手。

开发者工具

OSGi.fx MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供通过 JSON-RPC 进行的资源与数据访问、工具注册与执行,以及提示模板渲染等能力,支持通知广播(如 SSE)与多传输通道,面向大语言模型(LLM)客户端提供标准化的上下文服务。

网页与API

LCYT MCP 服务器(Python 实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及资源快照渲染等能力,采用 JSON-RPC 与 LLM 客户端通信,支持通过标准的 stdio/SSE 传输与多种客户端集成,用于向模型提供上下文信息和外部功能调用能力。

网页与API

Actual Budget MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,桥接 LLM 客户端与 Actual Budget 数据、工具与 Prompts,提供资源访问、工具调用与 Prompt 渲染等能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理与认证等商业级特性。

开发者工具

wt-tools MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源读取、工具执行、以及上下文相关能力,能够通过 Claude Code 等 LLM 客户端以 JSON-RPC 风格进行交互,向客户端提供工作区状态、Ralph 循环状态、团队活动等资源,并暴露可执行的工具集和资源查询、记忆等能力,支持插件式扩展与多机器协作场景。

AI与计算

omengrep MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供代码资源管理、工具调用和提示模板渲染等能力,支持通过 JSON-RPC 采用标准的请求-响应模型与客户端通信,当前实现以标准输入输出(stdio)为传输通道。

开发者工具

AI-Player MCP 服务器(MUD 场景)

基于 Model Context Protocol 的标准化后端服务器实现,提供对资源、工具和提示的管理与执行能力,通过 JSON-RPC(基于 STDIO 的 MCP 服务器)与客户端通信,支持与 MUD 服务器的 TCP 连接、日志监控和自动化测试能力。

网页与API

TrustChain MCP 服务器

基于 TrustChain 的 MCP 服务器实现,提供按 Model Context Protocol (MCP) 规范管理资源、注册工具并渲染提示模板的后端服务,通过 JSON-RPC 方式与 LLM 客户端进行上下文信息与功能调用的标准化交互。支持工具注册、资源访问、PROMPT 管理以及会话与多种传输协议的扩展能力,帮助 llm 应用方安全地获取可验证的上下文与功能。无论就地嵌入还是独立部署,该实现均可为 Claude Desktop 等客户端提供 MCP 服务。

AI与计算

Ember MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Ember 记忆资源、工具与提示模板的标准化管理与访问,并通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明以及多传输协议接入,面向 LLM 客户端提供可扩展的上下文服务框架。

AI与计算

Debate Hall MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板,供大模型客户端以标准化的 JSON-RPC 方式获取上下文数据、调用外部功能与获取对话模板。服务器实现了会话管理、能力声明,并支持多种传输协议(如 Stdio、SSE、WebSocket),为结构化辩论场景中的 Wind/Wall/Door 模型提供安全、可扩展的上下文服务框架。

AI与计算

Nido MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供标准化的资源与工具管理、以及对 Prompts 的支持,通过 JSON-RPC 与 LLM 客户端进行通信,并可在 STDIN/STDOUT 等传输通道下工作。

AI与计算

Corvia MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,实现资源托管、工具注册/执行与 Prompt 模板渲染,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文与功能,并通过 Axum 构建的 MCP 服务端实现会话管理、能力声明与多传输协议支持(如 Stdio、SSE、WebSocket)以服务化地提供组织级记忆与上下文服务。

AI与计算

Neocortica MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,用于向 LLM 客户端以标准化方式提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持多种传输方式(当前以 Stdio 为主)。它包含工具注册、任务流管理等核心能力,旨在为学术研究相关的 LLM 应用提供可扩展的上下文服务。

AI与计算

Tessera MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,使用 JSON-RPC 机制与 LLM 客户端进行通信,支持多传输协议(包括标准输入输出、SSE、WebSocket)并内嵌 SQLite/FAISS 等组件实现安全、可扩展的上下文服务框架。

AI与计算

Nebula MCP 服务器实现

Nebula 是基于 Model Context Protocol 的 MCP 服务器实现,能够对接 LLM 客户端,通过 JSON-RPC 提供资源管理、工具注册与执行、以及提示模板渲染等上下文服务,支持 STDIO 与 HTTP/SSE 等传输方式,便于在云安全场景中为 AI 助手提供后端能力。

AI与计算

Routa MCP Server

基于 Model Context Protocol (MCP) 的服务器端实现,Routa 提供完整的 MCP 服务端能力,通过 JSON-RPC/Federated 流式通知向 LLM 客户端暴露资源、工具与提示模板,并支持多工作流的代理协同与会话管理。该仓库不仅包含 MCP 服务端核心逻辑,还实现了与 ACP 生态的深度集成与客户端路由接口。

开发者工具

Decibel Tools MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供项目上下文、资源管理、工具执行和提示模板渲染等能力,支持多传输协议(stdio、HTTP、桥接等)以及插件化工具集,通过 JSON-RPC/HTTP 与客户端通信,具备会话管理、能力声明与安全可扩展的上下文服务框架。

AI与计算

Codex Orchestrator MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与数据访问、工具注册与执行、以及提示模板渲染等 MCP 核心能力,并通过 JSON-RPC 与 LLM 客户端进行通信;包含委派服务器等 MCP 服务入口,支持基于 stdio 的服务以及可扩展的传输协议。该仓库实现了 MCP 服务器端逻辑与启动集成,能够为 LLM 客户端提供上下文服务、工具执行能力以及可渲染的 Prompt 模板。

AI与计算

AdaptivMCP

AdaptivMCP 是一个自托管的 MCP 服务器实现,集合了 GitHub/Render 自动化工具、资源管理、工具注册与执行,以及提示模板渲染等功能,并通过 JSON-RPC 与 LLM 客户端通信。支持多传输协议(Streamable HTTP / SSE),并提供注册/诊断 UI,方便与 OpenAI/ChatGPT MCP 连接器对接与调试。

网页与API

MoJoAssistant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源存储、工具注册与执行、以及 Prompt 模板的渲染与管理,通过 JSON-RPC 与客户端通信,支持 HTTP/API、STDIO 等传输方式,并集成了 OpenCode Manager、OAuth 2.1 等扩展功能,适用于向 LLM 客户端提供可扩展的上下文与能力服务。

AI与计算

PocketPaw MCP 服务端实现

基于模型上下文协议(MCP)的后端服务,提供资源托管、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端进行标准化交互;支持多传输协议、会话管理与能力声明,适配多种 LLM 客户端场景。

网页与API

NagaAgent MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,负责注册与发现 MCP 工具、并行调度执行、资源与记忆/知识图谱相关能力,并通过 JSON-RPC/HTTP 形式对外提供统一的 MCP 服务入口,支持多种传输模式与会话管理。

AI与计算

Guardrail MCP 服务器端实现

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,通过 SSE+JSON-RPC 提供资源、工具和提示的托管、注册、执行与渲染,包含会话管理、权限控制、Web UI、数据库与缓存集成,支持多种传输协议,面向 AI 代理与 IDE 集成的上下文服务框架。

AI与计算

llm-energy MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持 JSON-RPC 通信与多传输接入,面向 LLM 客户端提供统一的上下文与功能入口。

AI与计算

llm-cli MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供远程工具注册与执行、资源与上下文管理,以及可渲染的 Prompts 与安全审计。通过 JSON-RPC 与客户端通信,支持多种传输方式(如标准输入/输出、SSH/ Docker 远程传输等),并内置 RBAC/ABAC、完整的审计日志、完整性校验与身份解析等安全特性,适用于将本地或远程的工具与资源整合进大语言模型的上下文服务框架。

AI与计算

Quiver MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端通过标准化的 JSON-RPC 方式提供资源、工具和 Prompt 的注册、访问与渲染能力,并支持会话管理与多传输协议(如 STDIO/HTTP)的 MCP 服务。

AI与计算

Awareness LatentMAS MCP Server

基于 LatentMAS 和 Model Context Protocol (MCP) 的 MCP 服务器实现,提供以 JSON-RPC 规范与 MCP 客户端通信的后端服务,用于暴露资源、注册与执行工具、以及定义和渲染 Prompt 模板,支持会话管理、能力声明与多传输适配。该仓库中包含可运行的 MCP 服务端实现及相关示例与测试脚本。

AI与计算

Monero MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 MCP 客户端暴露对 Monero 钱包的资源、工具与提示模板的访问与执行能力;通过 JSON-RPC 与客户端通信,并支持多种传输模式,提供安全、可扩展的上下文服务框架。

开发者工具

Census MCP 服务端(Open Census MCP Server)

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供资源(Resources)、工具(Tools)和提示模板(Prompts)的标准化上下文服务。通过 JSON-RPC 与客户端通信,服务器负责会话管理、能力声明,以及对资源、工具和提示进行托管、注册与渲染,支持多传输协议的接入以实现灵活的后端上下文服务框架。

网页与API

MingAI MCP Server - MCP 后端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板管理,并通过 JSON-RPC 与 MCP 客户端进行通信,支持流式传输(Streamable HTTP)等传输方式,以及 OAuth 认证、会话管理和工具分发能力,能够直接被 MCP 客户端调用实现多模态上下文服务。

AI与计算

Vellaveto MCP 服务器端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源与工具的托管与管理、提示模板渲染、以及标准化的 JSON-RPC 通信,支持多传输通道(HTTP/SSE、Stdio、WebSocket 等),并具备审计、策略引擎、合规映射等能力,为对话式 AI 客户端提供安全、可扩展的上下文服务框架。

AI与计算

ACK Protocol MCP Server

基于模型上下文协议(MCP)的后端服务实现,提供以标准化 JSON-RPC 形式通过 SSE 传输向 LLM 客户端提供上下文信息、资源、工具以及提示模板等能力,支持多工具调用与资源查询等 MCP 核心功能。

AI与计算

JiKiME-MCP 内存服务端

基于 Model Context Protocol(MCP)的后端服务器实现,暴露内存相关工具(memory_search、memory_get、memory_load、memory_save、memory_stats、memory_reindex),通过 JSON-RPC 在标准输出/输入(STDIO)传输,与 LLM 客户端进行上下文提供、资源访问与工具调用,提供会话管理、能力声明与可扩展传输协议支持。

网页与API

Thoth MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,负责托管资源、注册与执行工具、定义并渲染可定制的 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端进行标准化的上下文服务交互,支持多种传输协议以提供安全、可扩展的后端能力。

AI与计算

Antigravity MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,作为 Antigravity-Manager 项目的一部分,提供标准化的模型上下文后端能力:托管 Resources(资源与数据)、注册与执行 Tools(外部功能调用)、定义与渲染 Prompts(提示模版),并通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明以及多种传输协议,实现跨 OpenAI/Claude/Gemini 等协议的统一上下文服务和模型路由能力。

AI与计算

AgenC MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,提供标准化的资源、工具和 Prompt 管理,并通过 JSON-RPC 与 LLM 客户端进行交互;实现对 MCP 操作的 AI 可调用工具化暴露、会话管理以及多传输协议支持(如 Stdio/SSE/WebSocket),用于在 Solana 上构建隐私保护的 AI 任务协作后端。

AI与计算

Quorum MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现;将 Quorum 的多AI协同推理能力以标准化的 JSON-RPC 服务形式暴露给 MCP 客户端,支持资源/工具/提示模板的管理与渲染,并通过标准化接口与客户端进行通信。

AI与计算

ABI MCP 服务器框架

基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供统一的资源管理、工具注册与调用,以及可定制的 Prompt 渲染能力;通过 JSON-RPC 2.0 进行通信,支持多种传输协议(如 stdio、SSE、WebSocket),以实现安全、可扩展的上下文服务。

AI与计算

QdrantRAG-DyTopo MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,提供向量检索、工具调用与 DyTopo 多代理路由等能力,旨在为本地离线/私有环境中的大模型客户端通过 MCP 协议以标准化方式获取上下文资源与功能。

AI与计算

AIVectorMemory MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供跨会话记忆的资源管理、工具注册与调用,以及提示模板的渲染能力。通过标准输入输出的 JSON-RPC 与 LLM 客户端进行通信,支持本地向量检索、嵌入模型、会话持久化以及多项目隔离等功能,适合作为 AI 编程助手的上下文和记忆后端。

AI与计算

MCP Inspector 服务器端实现

基于 Model Context Protocol(MCP)的后端实现,提供资源托管与管理、工具注册与执行、以及提示模板的渲染与测试能力,并通过 JSON-RPC 与 LLM 客户端进行交互。支持多传输协议(如 SSE、WebSocket、stdin/stdio),用于为 LLM 应用提供可扩展的上下文服务框架。仓库实现包含服务端核心路由、MCP Apps 与 Widget 集成、OAuth/API Key 等认证测试用例,以及用于调试与开发的工具和中间件。

AI与计算

Codes MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持 Claude Code 的多主体协作与扩展能力。

AI与计算

Purdue Brightspace MCP Server

基于 Model Context Protocol (MCP) 的后端服务,向大语言模型客户端提供对 Purdue Brightspace 数据的资源、工具和提示模板等上下文能力,采用标准化的 JSON-RPC 交互,支持多传输协议(如 STDIO)。该服务器通过注册多种工具(如获取课程、作业、成绩、公告、课程内容等)、管理认证令牌并访问 Brightspace API,为 LLM 客户端提供安全、可扩展的上下文服务框架。

网页与API

zkmin MCP 服务器实现

基于 zkmin 的 MCP 服务器实现,提供资源、工具与提示模板的托管与渲染;通过 JSON-RPC 与客户端通信,支持 HTTP/SSE 传输,用于向大语言模型客户端提供可上下文化的后端能力与交互功能。

开发者工具

Agent Smith MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具与 Prompt 模板的注册、管理与渲染,并通过 JSON-RPC 与客户端通信,提供会话管理与多传输协议支持的上下文服务框架。

AI与计算

Solvr MCP 服务端

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及可渲染的提示模板,采用 JSON-RPC 与 LLM 客户端通信,支持通过标准输入输出(stdio)对接多种 AI 客户端插件与工作流。当前实现覆盖初始化、工具列表以及工具调用等核心 MCP 场景,并附带一个可运行的工具集(solvr_search、solvr_get、solvr_post、solvr_answer、solvr_claim)。

AI与计算

Eng Platform MCP 服务器集成

基于 Model Context Protocol 的后端服务器集合,提供资源、工具和提示模板的标准化上下文服务;通过 JSON-RPC 与 LLM 客户端通信,支持多传输模式(SSE、stdio、HTTP),并包含多种领域的 MCP 服务实现(资源管理、分析、报告撰写、团队分析等)。

AI与计算

Crew MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,向 LLM 客户端通过标准化的JSON-RPC提供资源、工具和提示模板,并支持多传输协议(stdio/SSE/HTTP),实现会话管理与能力声明,便于上下文信息的安全、可扩展加载与调用。

网页与API

BrowserOS_Guides MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具执行与提示模板渲染等功能,统一以 JSON-RPC 形式向 LLM 客户端暴露上下文信息与能力,支持多传输通道(HTTP/SSE)并具备会话管理、能力声明与安全性校验。

AI与计算

Volume-Price Analysis MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化方式提供股票量价分析所需的数据、工具和提示模板,支持数据读取、工具执行、以及可渲染的提示模板,采用 JSON-RPC 通过 STDIO 等传输方式与客户端交互。

开发者工具

Qortex MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器,提供资源托管、工具注册/执行以及提示模板的管理与渲染,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供可扩展、安全的上下文服务框架。

网页与API

AgentChains MCP 服务器

基于模型上下文协议(MCP)的服务器端实现,向 MCP 客户端提供资源、工具与提示模板等上下文能力,并通过 JSON-RPC 2.0 在 SSE/POST/WebSocket 等传输通道进行通信与协作。

AI与计算

Pipelock MCP 代理服务器

基于模型上下文协议(MCP)的双向扫描代理,封装并保护 MCP 服务端与客户端之间的 JSON-RPC 2.0 通信,能够对请求与响应中的文本内容进行 DLP、注入检测,并在需要时对内容进行拦截、剥离或提示人工干预,同时支持热配置和多种传输方式。

AI与计算

RestFlow MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大语言模型客户端提供资源、工具和提示模板等上下文信息,并通过 JSON-RPC 进行请求/响应交互,作为 RestFlow 的 MCP 服务端核心能力之一。

AI与计算

MIE-MCP 服务器

基于 Memory Intelligence Engine (MIE) 的 MCP 服务器实现,提供 JSON-RPC 风格的模型上下文协议后端,用于向 LLM 客户端(如 Claude、ChatGPT、Cursor 等)暴露资源、工具,以及可渲染的提示模板,并支持会话管理与多种传输方式(如 STDIO、WebSocket、SSE)等能力。

AI与计算

Nine1Bot MCP 服务端与浏览器桥接实现

基于 Model Context Protocol (MCP) 的几类实现集合,提供对工具的统一管理、MCP 风格的请求/响应处理,以及通过浏览器扩展与浏览器直连(CDP)实现的端到端浏览器控制桥接能力。仓库中包含用于扩展内嵌 MCP 服务器、以及桥接服务器的实现,支持多传输通道、会话管理、以及通过工具调用完成对资源与功能的统一访问。

AI与计算

OASTools MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,将资源、工具与提示模板以标准化的 MCP 服务器形式提供给 LLM 客户端,通过 JSON-RPC 进行交互,支持多种传输通道(如 STDIO、SSE、WebSocket),实现会话管理、能力宣告与可扩展上下文服务。

网页与API

Rampart MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现与代理框架,提供对资源、工具与提示的标准化管理、通过 JSON-RPC 与客户端通信,并支持审计、策略执行、以及与 OpenClaw 等组件的集成。

网页与API

iTaK MCP Server

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,能够在后端以标准化的 JSON-RPC 风格向 MCP 客户端暴露工具、任务看板等功能,并通过 Bearer Token 进行简易鉴权;提供可将 MCP 服务接入 FastAPI 的路由接口,支持多工具注册与远程调用等具体能力。

AI与计算

Cairn MCP 服务端

基于 Model Context Protocol 的后端服务器,提供资源管理、工具执行与提示模板渲染,并通过 JSON-RPC MCP 协议向 LLM 客户端提供可扩展的上下文服务,支持 STDIO、HTTP、WebSocket 等传输方式与 REST 辅助接口。

AI与计算

claude-skills-vault

基于 Model Context Protocol (MCP) 的服务器集合,提供资源访问、工具注册与执行,以及对话/上下文能力的标准化后端,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用与提示渲染等操作。

AI与计算

Everything Agent Databricks DevTools MCP 服务器

基于模型上下文协议(MCP)的服务器实现,暴露 Databricks 相关的资源、工具执行能力以及查询结果渲染,供大语言模型客户端通过 JSON-RPC 进行交互。

AI与计算

Claude Cognitive MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,为 LLM 客户端提供资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信及多传输协议(如 STDIO、HTTP/SSE/WebSocket)以实现安全、可扩展的后端上下文服务。

AI与计算

Agent Layer MCP 服务器框架

基于 Model Context Protocol(MCP)的后端框架,提供资源托管、工具注册与执行、以及基于模板的 Prompt 渲染,支持 JSON-RPC 通信与多传输协议(如 StdIO、SSE、WebSocket)以向 LLM 客户端提供上下文信息与外部功能。仓库不仅包含客户端示例,还实现服务器端能力、Prompts 及与客户端的集成运行逻辑。若要在实际环境中搭建 MCP 服务器,可使用内置的 MCP Prompts 服务器和通用服务器配置来对接不同的 MCP 客户端。

桌面与硬件

TEAM05 MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端服务器实现,提供面向大语言模型的资源管理、工具调用与提示渲染能力;仓库包含多个独立的 MCP 服务模块(如 Distiller、NCEMPy、4DCamera 等),通过 FastMCP 框架实现工具注册、资源访问与 JSON-RPC 风格的请求响应,支持通过多种传输方式进行客户端通信。

AI与计算

ralph-starter MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和提示模板等上下文能力,面向 LLM 客户端以标准化的 JSON-RPC 形式进行交互,支持多传输协议并实现会话管理与能力声明。

AI与计算

oJob-common MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,提供通过 HTTP SSE/STDIO 传输的 JSON-RPC 风格接口,管理资源、注册与执行工具、定义与渲染提示模板,面向大语言模型(LLM)客户端提供标准化的上下文服务和功能调用能力。

网页与API

Keep MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,提供标准化的后端上下文服务,能够向客户端暴露 Resources、Tools,以及通过 MCP 协议读取和执行操作的能力,并以 JSON-RPC 形式进行请求/响应。实现了 MCP 的核心处理路径(初始化、获取资源、读取资源、列出工具、执行工具),并提供一个可运行的服务器接口入口(包括在 STDIO 模式下接收请求并返回响应的能力)。

AI与计算

TabOrg MCP Server

基于 Model Context Protocol (MCP) 的本地服务器实现,提供对浏览器标签、分组、窗口等资源的访问、工具的注册与执行,以及提示模板的定义与渲染,供外部大语言模型(LLM)客户端通过 JSON-RPC 进行上下文查询、操作与交互。

网页与API

FinanceServer MCP 后端

基于 Deno 的 MCP(模型上下文协议)服务端实现,提供用于 LLM 客户端的上下文资源、工具调用与提示模板等能力,支持多场景的 MCP 会话(如全局、账单/支出等),通过 JSON-RPC/流式传输与客户端进行交互,具备会话管理、能力声明以及多种传输协议的支持。该仓库不仅实现服务器端路由与会话,还对接了数据库、OAuth、以及 MCP 服务实例化等核心组件,形成完整的 MCP 服务端框架。

AI与计算

foobara-py MCP 服务器实现

基于 Foobara 的 MCP 服务器实现,提供资源(Resource)、工具(Tools)、提示模板(Prompts)等 MCP 组件的服务器端能力,通过 JSON-RPC 形式在 STDIO 通道下与客户端进行上下文信息与功能交互,支持命名域、会话、与命令注册的 MCP TOOL 列表与调用等核心能力。

AI与计算

agent-memory MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,为 AI Agent 提供长时记忆、工具执行和资源管理能力,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输通道(如 StdIO、SSE、WebSocket)。

AI与计算

Power Agent MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,作为 Copilot Studio 的后端上下文与工具提供者。核心职责包括托管与管理资源、注册和执行工具,以及定义和渲染提示与 UI 资源,并通过 MCP 的 JSON-RPC 2.0 协议与客户端进行通信(支持标准的初始化、工具列表与工具调用等请求,当前实现通过标准输入输出传输)。

网页与API

Flux MCP 伺服端实现

基于 Flux 的 MCP(Model Context Protocol)服务器实现,提供标准化的资源管理、工具执行以及基于模板的提示渲染能力,以 JSON-RPC 方式与客户端交互,支持多传输(如 Stdio、HTTP/SSE),可为 LLM 客户端提供上下文和外部功能调用能力。

AI与计算

Dela-MCP 服务器实现

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及可渲染的提示模板等能力,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明及多种传输形式,便于在编辑器、IDE 等环境中以标准化方式获取上下文信息与功能。该仓库实现了完整的 MCP 服务器端逻辑,包含任务发现、任务执行、结果与日志通知等核心能力。

AI与计算

Claude AI Music Skills State MCP 服务器

基于模型上下文协议(MCP)的后端服务器,提供音乐项目的状态数据访问、资源查询、工具调用和会话管理,并通过 JSON-RPC 以标准化方式与 LLM 客户端通信,支持本地资源、专辑、轨道、想法等数据的读取、更新与重建。

AI与计算

Agent-Lab MCP Server

基于 FastAPI 的 MCP 服务器实现,提供按标准化方式向 LLM 客户端暴露资源、工具和提示模板的能力,并通过 JSON-RPC 风格的 API 与客户端通信,支持多种传输方式(HTTP/SSE),实现会话管理与能力声明等 MCP 服务器核心功能。

AI与计算

PMOVES-BoTZ Docling-MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供文档处理资源、工具注册与执行、以及 Prompt/模板的上下文服务,支持通过 STDIO、HTTP/SSE 等传输协议与 LLM 客户端进行 JSON-RPC 通信,并具备健康检查、会话管理与多传输能力的后端服务框架。

网页与API

pyzotero MCP 服务端

基于 Model Context Protocol(MCP)的后端服务,暴露本地 Zotero 库的资源、工具和 Semantic Scholar 集成,供大语言模型客户端通过 JSON-RPC 进行交互与上下文获取。

AI与计算

AI Dev Flow MCP Mock Server

基于 MCP(Model Context Protocol)的后端服务器实现,用于模拟向 LLM 客户端提供资源、注册与执行工具、以及渲染提示模板的能力,具备可运行的服务端代码和一套可测试的微型 MCP 服务场景,便于开发、验证和集成测试。

AI与计算

MCP-A2A 分布式服务器框架

基于 Model Context Protocol (MCP) 的后端服务器框架,提供 A2A 端点、工具注册、跨服务器协作与 JSON-RPC 通信,能够向 LLM 客户端以标准化方式暴露工具集合、实现会话与上下文管理。

AI与计算

Ollama MCP 服务器

将本地 Ollama API 以工具形式暴露给 Cursor、Claude Desktop 等 LLM 客户端的后端服务,提供模型管理、对话、生成与嵌入等能力的 MCP 服务端实现。

网页与API

Sequence Banking MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型(LLM)客户端提供 Sequence 银行业务的上下文资源、可执行工具以及可渲染的提示模板,支持通过多种传输协议与客户端进行 JSON-RPC 交互,實现账户查询与远程规则触发等功能。

AI与计算

Plural MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供权限提示、问题解答和计划审批等上下文能力。通过 JSON-RPC 与客户端交互,并在本地通过 TUI(通过 Unix socket 与 UI 组件通信)提供可扩展的外部功能接入与会话管理。

开发者工具

Hack MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端以标准化方式提供上下文资源、可调用工具、以及可定制的提示模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理与多种传输协议(如 STDIO、SSE、WebSocket),实现资源/工具/提示的托管、注册与渲染,面向本地开发环境的可扩展上下文服务。

AI与计算

Sentinel MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,使用 JSON-RPC 规范与客户端通信,提供 MCP 初始化、工具列表以及工具调用等基本服务器端能力,用于向 LLM 客户端暴露资源、工具与提示渲染等上下文服务。

开发者工具

FCPXML MCP 服务器(Final Cut Pro XML 后端)

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,提供对 Final Cut Pro X 的 FCPXML 文件进行分析、修改和自动化的标准化 JSON-RPC 接口,支持资源发现、工具执行、提示渲染等核心能力,便于与 LLM 客户端协作完成上下文管理与功能调用。

AI与计算

MCP 后端服务示例:资源与工具协同服务器

基于模型上下文协议(MCP)的后端服务器实现,提供本地资源管理、外部工具调用和提示渲染,支持与LLM客户端通过JSON-RPC进行交互,具备SQLite持久化与外部天气API查询等功能。

桌面与硬件

Relay - Visual MCP Server Manager

基于 Model Context Protocol (MCP) 的聚合型服务器实现,通过网关式中间件将本地 MCP 服务器聚合为一个可通过 JSON-RPC 与客户端交互的统一入口,提供对资源与工具的托管、执行、以及提示模板的渲染与导出,具备会话管理、 secret 管理、日志流、以及跨进程通信的能力。

商业系统

Katana MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,支撑 LLM 应用的上下文与功能服务。

网页与API

Medical MCP 服务器集合(生物医药 API 集成与统一工具端点)

基于 Model Context Protocol (MCP) 的后端服务器实现,聚合多家生物医药数据库的工具与资源,通过 JSON-RPC 与 LLM 客户端通信,提供资源托管、工具注册与执行、提示模板渲染等能力,并支持统一端点与各个 API 的专用端点,面向将来将上下文信息与功能模块化提供给大语言模型进行后端上下文服务。该仓库实现了一个以 FastMCP 为核心、覆盖 Reactome、KEGG、UniProt、Omim、GWAS、PubMed、OpenFDA、MyVariant、BioThings、NCI 等多家 API 的 MCP 服务器集合。

AI与计算

Rosetta KIC MCP 服务器

基于 MCP 的后端服务,向 LLM 客户端提供循环肽分析工具、资源和提示模板,并通过 JSON-RPC 协议进行通信。

AI与计算

AgentMux MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端进行交互,支撑多传输协议的上下文服务与安全扩展能力。

AI与计算

Interactive LeetCode MCP 服务器

基于 Model Context Protocol (MCP) 的 LeetCode 学习与练习后端,提供资源、工具、提示等标准化访问,并通过 JSON-RPC 形式对接大型语言模型客户端

AI与计算

Obsidian 本地 MCP 服务器插件

在 Obsidian 中实现一个基于 Model Context Protocol 的 MCP 服务器,提供资源、工具与提示模板的后端服务,并通过 JSON-RPC 与客户端进行交互,支持并发会话、HTTP/HTTPS 传输以及安全访问控制。

AI与计算

Titan Memory MCP 服务器

基于 Titan Memory 的 Model Context Protocol (MCP) 服务器,采用 JSON-RPC 与客户端进行资源、工具、提示模板等上下文能力的标准化交互,支持多传输协议、会话管理与安全认证,面向 LLM 客户端提供可扩展的上下文服务框架。

AI与计算

Toolkit-MD MCP 服务端

基于模型上下文协议(MCP)的后端实现,提供对 Markdown 内容资源的托管与管理、工具注册与执行,以及可渲染的 Prompt 模板,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用和提示渲染等交互,包含可运行的服务器端代码与完整工具集。

AI与计算

Poznote MCP Server

基于 Model Context Protocol (MCP) 的 Poznote 后端服务器实现,利用 FastMCP 在 HTTP 流式传输上通过 JSON-RPC 提供笔记资源、工具方法与数据访问能力,支持多用户环境与简易的扩展工具集。该服务器可让大语言模型(LLM)以统一、标准化的方式读取笔记、执行笔记操作、查询工作区与文件等上下文信息。

AI与计算

term-llm MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供外部工具注册、资源管理和提示渲染等能力,并通过 JSON-RPC/stdio 等传输与客户端进行交互。

网页与API

Infinity-API MCP Bridge

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器实现,将 Infinity-API 的 FastAPI 应用通过 MCP 桥接暴露为可被 LLM 客户端通过 JSON-RPC 调用的上下文服务,支持资源、工具、提示等的统一管理与访问,并在同一应用中同时提供 REST API 与 MCP 服务。

AI与计算

News Digest MCP Server

基于模型上下文协议(MCP)的后端服务器实现,处理 JSON-RPC 请求,提供初始化、工具列表以及将 Claude 的 selections 写入本地文件的能力,并附带输入校验与日志记录。

AI与计算

Laravel Workflow MCP 服务器示例

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Laravel Workflow 的资源、工具与流程的 MCP 接口支持,允许 AI 客户端通过 JSON-RPC 向服务器发起启动工作流、查询状态等操作,并在 Laravel 应用内完成工作流调度与结果存储。

网页与API

Vörðr MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,通过 HTTP 的 JSON-RPC 提供资源、工具和提示模板等能力给 LLM 客户端进行上下文查询与功能调用,核心与后台容器生命周期、网络/镜像等能力集成在一个可扩展的 MCP 服务端中。

AI与计算

Claude Task Master MCP 服务器端

基于 Model Context Protocol(MCP)的后端服务器,实现资源对接、工具注册/执行与提示模板渲染等能力,向大语言模型客户端提供标准化的上下文服务,通过 JSON-RPC 进行通信,支持多传输协议和会话管理,适用于多实例协同的上下文服务场景。

AI与计算

DURA MCP 服务器

基于模型上下文协议(MCP)的后端服务,向大语言模型客户端提供依赖分析、风险评估、工具执行和提示渲染等能力。通过 JSON-RPC 与客户端通信,支持资源管理、工具注册、Prompts 定义与多种传输通道(如 Stdio),实现对后端分析流程的标准化上下文服务。

网页与API

Buttondown 上下文服务后端

基于 Buttondown API 的 MCP 风格后端服务,为大语言模型客户端提供资源访问、工具调用和上下文渲染等能力。通过 JSON-RPC 与客户端通信,支持多种传输方式(如标准输入输出、SSE、WebSocket),实现对 Buttondown 邮件、订阅者等数据的安全、可扩展访问。

AI与计算

LandingAI ADE MCP 服务器(TypeScript实现)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理以及 JSON-RPC 通信,支持标准化的上下文服务与多传输协议。

网页与API

Recharge MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化的 JSON-RPC 接口向 LLM 客户端提供 Recharge API 的资源、工具和提示模板等上下文服务,并通过标准传输(如 stdio)与客户端进行通信。

开发者工具

Manim-MCP 服务端

基于 Model Context Protocol (MCP) 的 Manim 渲染后端服务器,提供资源托管、工具执行和 Prompts/模板的标准化接口,供 LLM 客户端通过 JSON-RPC 与后端进行资源读取、工具调用以及渲染作业管理等交互。

网页与API

Feonix Insight MCP KB Server

基于模型上下文协议(MCP)的知识库后端服务器实现,提供资源管理、工具执行以及提示模板等功能,并通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持网络访问与安全认证。该仓库中存在实现 MCP 的服务器端代码(如 mcp_kb_server.py、feonix_kb_server.py 等),实现了 Initialize、Tools、Resources 等 MCP 端点及健康检查等功能。

AI与计算

Muesli MCP 服务器(Model Context Protocol 实现)

基于 Rust 的 MCP 服务器实现,向 AI 客户端以标准化的 JSON-RPC 方式暴露会议记录的资源、工具和提示渲染能力,支持文档列表、检索、获取原始转写、同步、以及基于 OpenAI 的摘要等功能,方便将本地会议数据接入到 LLM 代理进行上下文查询与分析。

AI与计算

Converse MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 Stdio、SSE、WebSocket)以构建面向 LLM 的上下文服务框架。

AI与计算

Memory MCP Triple System

基于 Model Context Protocol 的 MCP 服务器实现,提供多层内存管理、资源与工具治理,以及推理提示渲染,使用 JSON-RPC 的 MCP 标准通过标准输入输出(Stdio)等协议与 MCP 客户端通信,为 LLM 应用提供安全、可扩展的上下文服务。

AI与计算

Zuraffa MCP 服务器

基于模型上下文协议(MCP)的后端服务,向大型语言模型客户端提供资源、工具和提示模板的上下文能力,通过 JSON-RPC 的方式进行请求/响应,并支持多种传输协议(如 STDIO、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AI与计算

Tap-MCP 桥接服务器

将 Visa 的 TAP 与 MCP 集成的后端服务器,提供对资源、工具与 Prompt 的 MCP 风格暴露,并通过 JSON-RPC 与 LLM 客户端进行通信,支持 TAP 签名、ACRO/APC/JWKS 等安全机制,旨在为 AI 代理提供可扩展的上下文服务与功能调用能力。

AI与计算

Project Indexer MCP Server

基于 Model Context Protocol (MCP) 的服务器端实现,用于对代码项目进行上下文分析、向量化检索和外部工具调用的统一管理。通过 JSON-RPC 风格的 MCP 客户端通信,服务器端负责会话管理、能力声明,以及资源(向量/元数据)的托管、工具执行和 Prompt 模板的渲染。实现了完整的 MCP 服务端逻辑(8 个工具),并使用 ChromaDB 进行向量存储、OpenAI 模型进行代码分析与嵌入生成,提供本地 STDIO 传输的运行能力,同时包含一个可选的 Web 管理端供查看和管理索引数据。该实现可直接作为 MCP 服务器使用或作为开发参考与扩展。

AI与计算

hdbconnect-mcp MCP 服务器

基于 SAP HANA 的 MCP 服务器实现,提供资源/工具/Prompt 的暴露与管理,通过 JSON-RPC 与 AI 客户端通信,支持只读访问、鉴权、以及多传输协议的后端上下文服务。

AI与计算

DeepSeek MCP 服务器(StdIO 通信实现)

基于 Model Context Protocol(MCP)的本地 MCP 服务器实现,提供对 Tools、Resources、Prompts 的标准化暴露,并通过 JSON-RPC 形式与客户端通信,支持通过标准输入输出(STDIN/STDOUT)进行请求与响应。

网页与API

Google Workspace MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源管理、工具执行以及提示模板的能力,核心通过 registerTool 将大量 Google Workspace 相关操作暴露为可调用的工具集,支持以 Stdio 传输等多种通信方式进行上下文服务与会话管理。

AI与计算

agnix MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向大模型客户端以标准化方式提供资源、工具与提示模板等上下文能力;通过 JSON-RPC 与客户端通信,支持多传输协议(stdio、SSE、WebSocket),并实现会话管理、能力声明以及对 MCP 请求/响应的处理。

网页与API

Infura MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,通过 Infura 提供对以太坊及多网络区块链数据的上下文服务、工具执行与提示模板渲染,支持 stdio 与 HTTP 两种传输模式,面向对话式 AI 客户端提供安全、可扩展的上下文能力。

AI与计算

ucon MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供统一的资源管理、工具注册与执行、Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端通信,用于单位转换、维度分析与上下文服务等场景。该实现将 ucon 的单位/维度计算能力暴露为可被 AI 客户端调用的后端服务。

AI与计算

Deepr 面向智能代理的后端服务器 (MCP 必要功能实现)

基于 Model Context Protocol 的完全实现级 MCP 服务器端,提供资源管理、工具注册与执行、以及 Prompts 定义与渲染,支持多传输协议并通过 JSON-RPC 与客户端通信,供 LLM 代理进行高效的上下文服务及能力扩展。

AI与计算

pyscn-mcp MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为 MCP 客户端提供 pyscn 的资源访问、工具注册/执行和提示模板渲染能力,通过 JSON-RPC 与客户端通信,支持多种传输通道并实现会话管理与能力声明。该实现以 pyscn 的命令行分析能力为核心,暴露给 AI 辅助工具集成使用。

网页与API

The Dead Internet MCP Hub

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的标准化对外接口,通过 JSON-RPC/SSE 与 LLM 客户端进行交互,提供会话管理、能力声明以及多传输协议支持的 MCP 服务端能力。

AI与计算

CookaReq MCP 服务端

基于 Model Context Protocol (MCP) 的本地化后端服务,嵌入式使用 FastAPI 提供 MCP 资源、工具和 Prompt 的注册、管理与渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理和多种传输方式。

AI与计算

SageMaker MCP 服务端(直接工具示例)

基于 AWS SageMaker 的 MCP 服务器实现示例,提供一个可运行的 MCP 服务端,用于注册并暴露一个 tooling(工具)给 LLM 客户端通过 MCP 协议进行调用。该示例直接使用 mcp.FastMCP 库,通过 stdio 传输启动服务,并注册一个将 SageMaker 请求转发到 SageMaker 推理端的工具。

AI与计算

Sei-MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供资源、工具与 Prompt 的注册、执行及渲染能力,并通过 JSON-RPC 进行通信,支持会话管理与多传输协议的后端上下文服务。

网页与API

StdHuman MCP 服务器

基于 Model Context Protocol (MCP) 的 JSON-RPC 服务端实现,暴露 plan、log、ask 等工具,并通过 /mcp 接口向客户端提供能力和上下文服务,用于与 LLM 的交互与协作。

AI与计算

Astronomer Airflow MCP 服务端

基于 MCP(Model Context Protocol)的 Airflow 后端实现,提供标准化的资源、工具和提示模板的访问接口,支持会话管理、身份认证、跨传输协议通信,并通过 JSON-RPC 风格的请求/响应与 LLM 客户端交互。

AI与计算

Consolidation Engine MCP 服务器

基于 Model Context Protocol (MCP) 的多层后端服务,向大型语言模型客户端提供资源管理、工具执行与 Prompt 模板渲染等上下文与功能,支持多种传输通道(stdio、HTTP、WebSocket、UDP InterLock)实现可扩展的上下文服务框架。

AI与计算

Prompt Circle Marketplace MCP 服务器示例

基于 Model Context Protocol (MCP) 的服务器实现样例,展示如何在后端注册工具与资源,并通过 Express HTTP 传输提供 JSON-RPC 风格的 MCP 服务。

数据库与文件

Universal Database MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供对多种数据库的资源管理、查询执行与数据导出能力,通过 JSON-RPC 与 LLM 客户端进行通信,并支持多种传输协议(如 STDIO),为大语言模型应用提供可扩展的数据库上下文服务。

网页与API

mage-remote-run

基于 Model Context Protocol (MCP) 的服务器端实现,将 Mage Remote Run CLI 的命令注册为 MCP 工具,通过 TCP/STDIO 或 SSE 支持的传输协议向 LLM 客户端提供资源、工具执行能力与 Prompts 渲染等上下文服务。

AI与计算

Currents MCP Server

基于 Model Context Protocol 的后端服务,向大语言模型(LLM)客户端提供 Currents 的测试与持续集成(CI)数据的资源、工具和提示模板,并通过 JSON-RPC 进行交互,以实现上下文信息托管、工具调用以及定制的对话模板渲染。

AI与计算

coda-mcp

基于 Model Context Protocol (MCP) 的服务器端实现,提供对 Coda API 的资源、工具及交互能力的标准化访问,采用 JSON-RPC 进行通信,支持通过标准传输协议接入。该实现具备服务端会话管理、工具注册与执行、以及资源访问等核心能力。

AI与计算

Steward MCP 服务器(StdIO 实现)

一个基于 Model Context Protocol 的 MCP 服务器实现,使用标准的 JSON-RPC over STDIO 与 MCP 客户端通信,能够托管和管理资源、注册并执行工具、定义并渲染 Prompt,并为 LLM 客户端提供上下文服务和功能调用能力。

AI与计算

HUMMBL MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具和提示模板,支持会话管理、能力声明以及多传输协议接入,具备资源管理、工具注册、流程模板渲染等完整功能。该实现包含服务端核心组件、工具/资源注册、数据框架、以及与 Claude Desktop 等客户端对接所需的 stdio 传输入口。

AI与计算

Hive MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,用于以标准化的 JSON-RPC 方式向 LLM 客户端提供资源、工具及上下文相关功能,采用标准输入输出(STDIN/STDOUT)进行通信,便于 Claude Code 等客户端对接执行与查询。

AI与计算

loko MCP 服务器端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行,以及提示模板的渲染,采用 JSON-RPC 通过标准输入输出与 LLM 客户端通信,支持插件化工具、会话管理与多种传输接口。

AI与计算

da-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型(如 Claude、ChatGPT)提供 DA(Document Authoring)资源、工具调用和提示模板等上下文能力,通过 JSON-RPC 与 MCP 客户端通信,并支持云端部署(Cloudflare Workers)、流式传输与简单的令牌鉴权。

AI与计算

AtomCLI MCP 服务器

基于 AtomCLI 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端以标准化方式提供资源、工具、提示模版与会话管理等上下文能力,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与灵活的配置扩展。

AI与计算

Nucleus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,将 LLM 客户端对资源、工具、Prompt 等的标准化请求通过 JSON-RPC 转发给 nucleus-tool-proxy,并返回相应的 JSON-RPC 响应,支持审批、会话标识等能力。

AI与计算

Omni-Dev-Fusion MCP 服务器实现

基于 Model Context Protocol 的后端服务实现,提供资源、工具、Prompts 的注册与管理,并通过 JSON-RPC 与客户端通信,支持多传输协议(STDIO、SSE、WebSocket),实现会话管理和能力声明,用于为 LLM 客户端提供一致的上下文与功能服务。

AI与计算

SGAI MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,提供标准化的 JSON-RPC 接口,使 LLM 客户端能够读取资源、注册并执行工具、以及获取和渲染提示模板等上下文能力,用于支持以 AI 驱动的软件工厂工作流。

AI与计算

Winston AI MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,注册并暴露 AI 文本检测、AI 图像检测、抄袭检测和文本对比等工具,供 MCP 客户端通过 JSON-RPC 调用并进行安全、可扩展的上下文服务。

网页与API

Wiz MCP Server

基于 MCP 协议的后端服务器实现,暴露 Wiz 灯具控制工具给可扩展的 LLM 客户端,通过 JSON-RPC 风格调用实现灯具状态查询与颜色控制等功能。

网页与API

Unicon MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向大语言模型客户端提供资源管理、工具执行与提示模板的统一上下文服务,并通过 JSON-RPC 与客户端进行通信。

AI与计算

Swiss Caselaw MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供对瑞士法院判例数据的资源访问与工具调用,通过 JSON-RPC 在标准输入输出(stdio)传输,与客户端进行交互,支持搜索、获取判决、统计等功能。

AI与计算

AIDA MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,作为 AI 助手与 Exegol 安全评估环境之间的中枢,为客户端提供标准化的上下文服务:托管与管理 Resources、注册与执行 Tools、定义与渲染 Prompts,并通过 JSON-RPC 与客户端进行通信与协作。该实现包含可运行的 MCP 服务器代码及相关工具、资源和工作流集成,适配本地开发及容器化部署场景。

AI与计算

claudetube MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向支持 MCP 的大语言模型客户端提供视频上下文资源、工具与提示模板,通过 JSON-RPC 进行统一通信,并可通过标准化传输协议(如_stdio、SSE、WebSocket)实现会话管理与能力声明,作为视频理解型 LLM 应用的上下文服务框架。

AI与计算

EDGAR 财务数据 MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供从 SEC EDGAR 提取的 filings、财务数据与指标的工具接口,并通过 JSON-RPC 与大语言模型客户端进行通信。

AI与计算

Introspectum MCP 服务端

基于 MCP 协议的后端服务,提供资源、工具、提示模板等的托管、注册、执行与渲染,通过 JSON-RPC 与 LLM 客户端通信,当前实现支持基于标准输入输出的简单传输模式,便于与模型对话系统进行上下文服务和功能调用协作。

网页与API

Ask O11y MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,作为 Grafana 插件后端,负载资源管理、工具注册与执行、提示渲染等功能,并通过 JSON-RPC 与客户端通信,支持多传输协议、RBAC、多租户等场景的上下文服务框架。

AI与计算

Orchestration MCP 服务器集成与网关

一个包含多种 MCP 服务实现和协调网关的综合后端,提供资源管理、工具注册与执行、提示模板渲染等 MCP 功能;通过 JSON-RPC 风格的请求/响应在各 MCP 服务之间路由调用,并提供多传输与完整的监控能力(如 PostgreSQL、Redis、Grafana/Loki 等)。该仓库实现了 MCP 服务器模板、网关协调、工具路由、以及多模型/多服务的协同工作能力,适合作为 LLM 客户端的上下文与功能服务后端。

网页与API

Agent Framework MCP Server 集合

基于 Model Context Protocol (MCP) 的后端服务实现,为大型语言模型客户端提供统一的上下文资源、工具调用和提示模板渲染能力,并通过 JSON-RPC 进行通信,支持多服务器协作(如 JIRA、GitHub 及任务队列等)。

网页与API

CBrowser MCP 服务器

基于 Model Context Protocol 的服务器实现,用于向 LLM 客户端以标准化的 JSON-RPC 方式提供浏览器资源、工具执行能力与提示模板,并支持资源管理、工具注册、提示渲染以及会话/状态管理等多模态上下文服务。该实现把浏览器自动化能力暴露为 MCP 工具集,方便 Claude Desktop/Code 等 MCP 客户端接入和协同工作。

网页与API

Unified Hi-Fi Control MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供对 Unified Hi-Fi Control 桥接器的工具集访问能力,通过 JSON-RPC 与 Claude 等 LLM 客户端进行交互,支持以统一接口调用中控工具并获取响应。

AI与计算

CompText MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,作为 CompText Codex 的后端上下文服务,向 MCP 客户端暴露工具清单、执行工具调用、以及初始化能力声明等接口。通过将 Codex 中注册的命令工具对外暴露,MCP 客户端能够读取资源、调用工具、以及获取提示/模板等相关能力信息,并在会话中实现上下文管理与跨模块协作。目前实现提供工具列出、工具执行和初始化响应等核心能力,属于可直接在应用中集成的 MCP 服务器端组件。

AI与计算

PackRun MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,向大型语言模型客户端以标准化方式提供资源、工具与对话上下文能力,支持 JSON-RPC 交互并集成多源数据健康与替代项查询。

网页与API

Sofia Intuition MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册与执行,以及可渲染的 Prompt 模板等标准化上下文服务,支持多种传输协议(如 SSE、HTTP)并通过 JSON-RPC 与客户端交互。

AI与计算

Moonbridge MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板等上下文信息的管理与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持并发执行、会话管理与多种传输方式以支持对话型 AI 应用。

网页与API

APPointme MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源数据、工具执行能力和 Prompt 模板渲染等上下文服务,支持通过标准化的 JSON-RPC 方式交互,并可通过 STDIO、SSE/HTTP 等传输协议进行通信与会话管理。

AI与计算

Arena MCP Server

基于 MCP 协议的后端服务器,暴露 Arena PLM REST API 的查询与数据获取能力,供大语言模型客户端通过 JSON-RPC 调用工具、读取资源并渲染提示模板。

AI与计算

Self Command MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向大模型客户端提供工具、资源与提示的托管、执行和渲染能力,并通过 JSON-RPC 与客户端通信,用于在 Gemini 等环境中通过 tmux 代理执行自引用命令、后台任务和日志监控等功能。

AI与计算

TestCollab MCP Server

基于 Model Context Protocol(MCP)的后端实现,向大语言模型客户端提供测试管理的上下文、资源、工具及提示模板渲染,并通过 JSON-RPC 的 MCP 协议与客户端进行通信与协作。

AI与计算

MCP Server 实现与示例集合(Python + 多传输模式)

一个基于 Model Context Protocol (MCP) 的服务器实现与示例集合,包含使用 FastMCP 的 Python 版本服务器、SSE 与 Streamable HTTP 传输模式,以及用于注册工具、提示、资源等组件的示例脚本,支持通过 JSON-RPC 与客户端进行资源访问、工具调用、提示获取等上下文服务的交互,适合对接 LLM 客户端进行 MCP 服务端能力测试、扩展与演示。

AI与计算

Gemini MCP 服务器

基于 Model Context Protocol (MCP) 的 Gemini 模型后端实现,提供资源、工具和提示模板的上下文服务,通过 JSON-RPC 与客户端通信,并以 stdio 传输实现 MCP 服务器。

数据库与文件

db-mcp - SQLite MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 SQLite 数据库的资源、工具与提示的标准化上下文服务,支持原生与 WASM 两种后端、OAuth 2.1 身份认证、JSON-RPC 通信以及 HTTP/SSE/stdio 等传输方式,面向 LLM 客户端进行可扩展的上下文与功能托管。

开发者工具

kubectl-mtv MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,作为与大语言模型(LLM)客户端的标准化上下文服务入口,提供资源管理、工具注册/执行以及提示模板的渲染能力,支持 JSON-RPC 交互与多种传输模式(如 stdin/stdout、SSE、WebSocket),并具备会话管理、能力声明和动态工具发现等特性。该服务器以 kubectl-mtv 项目内的实现为基础,能够与客户端通过 JSON-RPC 请求交互,提供迁移相关的资源、工具及提示信息的上下文服务。

AI与计算

Octobrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供内存资源管理、工具执行以及提示模板渲染等能力,通过 JSON-RPC 在标准输入输出(STDIO)与 LLM 客户端进行通信,支持多种内部传输与会话管理,用于向 LLM 客户端提供可访问的上下文信息与功能。

AI与计算

Reactive Resume MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对 Reactive Resume 的资源、工具与提示模板的标准化访问,支持通过 JSON-RPC 与 LLM 客户端交互,完成简历管理、编辑及导出等能力的远程调用。

桌面与硬件

FocusRelayMCP

一个基于 Model Context Protocol(MCP)的 OmniFocus MCP 服务器实现,提供以标准化方式向 LLM 客户端暴露上下文数据、工具和提示模板的能力。服务器端处理 MCP 请求并返回 JSON-RPC 风格的响应,配合 macOS 环境的 OmniFocus 插件桥接实现,实现任务、项目、标签等数据的查询与管理。

AI与计算

Memo MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源索引查询、工具调用与提示渲染能力;通过 JSON-RPC(以标准输入输出传输)与客户端进行通信,支持会话管理、能力声明和简单的状态监控,便于将本地代码库上下文提供给大语言模型客户端使用。

网页与API

Kuadrant MCP Gateway

基于模型上下文协议(MCP)的后端网关与服务器聚合实现,能够将多个后端MCP服务器 behind 一个统一入口进行托管、注册工具并通过JSON-RPC进行交互与通知。

网页与API

Griffin API MCP服务器

基于 Model Context Protocol (MCP) 的后端服务,向大型语言模型(LLM)客户端提供 Griffin API 的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持 STDIO 传输等多种传输方式,帮助在对话中访问和操作银行相关数据。

AI与计算

Relay-MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器端实现,提供通过 JSON-RPC/MCP 风格请求处理资源、工具与提示模板等功能,以及对代理人会话、工具注册、资源管理和跨进程通信的完整支持,底层以 relay-pty 提供的 UNIX 套接字和 PTY 注入机制实现,具备多种传输与扩展能力。

网页与API

Gonzales MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供将速率测试后端数据以 MCP 标准暴露给大语言模型客户端的能力;通过 JSON-RPC 风格的输入输出,在 stdin/stdout 方式下与客户端对话,支持初始化、工具列表与工具调用等核心功能,便于搭建可扩展的 LLM 辅助上下文服务入口。

开发者工具

Flutter Skill MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化的 JSON-RPC 方式暴露 Flutter 应用的资源/工具/提示模板等上下文信息,并通过多传输协议实现会话管理、能力声明与扩展能力,帮助 AI Agent 在 Flutter 应用中进行自动化控制与测试。

开发者工具

MaxMCP - Max/MSP 的模型上下文 MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,将 Max/MSP 的补丁、对象、工具等上下文信息以标准化的 JSON-RPC 形式提供给 MCP 客户端(如 Claude Code 这类集成工具),支持通过 WebSocket 与 stdio 两种传输通道进行通信,并包含对多补丁、工具集、资源访问、以及补丁渲染模板等功能的实现与管理。

AI与计算

Agent-Skill-Kit MCP Gateway

基于 Model Context Protocol 的 MCP 服务器实现,将本地技能暴露为 MCP 工具,支持 Claude Code、GitHub Copilot 等代理直接调用技能,从而实现本地技能的 Agent-Native 访问与执行。

AI与计算

Ark UI MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,向 MCP 客户端提供资源、工具和提示模板等上下文能力,支持通过 JSON-RPC 与客户端通信,并可通过多种传输方式(stdio、SSE/HTTP)进行交互。

网页与API

wordpress-nodeflow-mcp

基于 Model Context Protocol 的云端 WordPress MCP 服务器实现,运行在 Cloudflare Workers,提供多租户的资源、工具和 Prompt 管理能力,并通过 MCP JSON-RPC 协议与客户端进行交互。

AI与计算

Knowledge Agent MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,用于向 LLM 客户端提供资源、工具和提示模板的标准化上下文与功能服务,支持多传输协议并通过 JSON-RPC 进行通信。

桌面与硬件

FRM-MCP 服务器(Formal Reasoning Mode)

基于 Model Context Protocol 的 FRM 后端实现,作为 FRM Desktop 应用的一部分,提供 MCP 服务端能力:注册并执行 FRM 的工具、托管与访问资源、渲染与提供 Prompt 模板等,并通过 JSON-RPC 与客户端通信。当前实现将 MCP 服务运行在 Electron 的主进程中,使用 InMemoryTransport 进行本地通信,适合作为本地集成的 MCP 服务端示例。

AI与计算

Jaato MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端通信,支持本地 IPC 与 WebSocket 等传输方式,面向 LLM 客户端提供可扩展的上下文服务。

AI与计算

Chakravarti 模型上下文后端服务 (MCP)

基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供资源管理、工具注册/执行、以及可渲染的 Prompt 模板,并通过 JSON-RPC 进行通信,支持标准输入输出(stdio)传输等多种传输协议,以实现统一的上下文服务和外部功能访问。

开发者工具

StoreConfig MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为 StoreConfig 的 MCP 服务器,向 LLM 客户端提供 JSON 结构化的资源、工具和上下文内容,支持通过 JSON-RPC 的请求/响应方式进行资源查询、工具执行、以及对配置模板的交互渲染,帮助 AI 辅助的配置管理场景。

网页与API

MDN MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供 MDN 文档、浏览器兼容性数据与搜索等资源,并通过 JSON-RPC 的 MCP 协议进行交互,支持工具注册、日志与错误上报等扩展能力。

AI与计算

MAMA Memory-Augmented MCP Server

基于 Model Context Protocol 的后端服务器,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、跨传输协议接入,具备嵌入向量、图谱化决策存储等能力,适用于 Claude Code/Desktop/OpenClaw 等环境的上下文服务与功能扩展。

网页与API

mollie-mcp

基于 Model Context Protocol (MCP) 的 Mollie API 服务端,向大型语言模型(LLM)客户端以标准化方式提供 Mollie 支付信息、查询工具与 prompts,通过 JSON-RPC 与客户端通信并通过标准传输(如 Stdio)实现扩展性与会话管理。

AI与计算

kguardian MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源/工具的注册、查询与执行,并通过 JSON-RPC 进行通信以实现后端上下文服务。

AI与计算

MemFlow MCP 服务器

基于 MemFlow 的 MCP 服务器实现,向大型语言模型客户端提供 Obsidian Vault 的上下文、资源访问、工具执行与可定制的提示模板等能力;通过 JSON-RPC/HTTP 及标准输入输出等多种传输方式与客户端进行交互,并支持本地化、隐私优先的上下文服务。

AI与计算

LightMem MCP 服务器

LightMem 的 MCP 服务端实现,使用 Model Context Protocol 提供资源、工具与提示模板的注册与执行,以 JSON-RPC 形式与 LLM 客户端交互。

AI与计算

Tools 模型上下文协议(MCP)服务器端实现

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,面向大语言模型(LLM)客户端提供标准化的上下文服务。

网页与API

ecosystems-packages MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,用于向大语言模型客户端提供包生态数据的上下文和查询工具;在本地 SQLite 数据库可用时优先使用本地数据,无法时回退到远端 API;通过 JSON-RPC 提供工具调用、健康检查等能力,支持标准的 stdio 通道进行通信。

AI与计算

GraphJin MCP 服务端

基于 GraphJin 的 MCP 服务器实现,为 LLM 客户端提供标准化的上下文服务,包含资源管理、工具注册和提示模板等上下文能力,支持通过 STDIO 和 HTTP 代理两种传输模式进行 JSON-RPC 通信,方便与 Claude Desktop 等 AI 助手对接。

AI与计算

Ultrascript Tools MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端以标准化方式提供上下文信息与能力。服务器托管资源、注册并执行工具、定义与渲染 Prompt 模板;通过 JSON-RPC 进行通信,支持会话管理、能力声明,并可通过多种传输途径如标准输入输出、SSE、WebSocket 等与客户端协作,构建安全、可扩展的代码上下文服务框架。

开发者工具

AI Dev Swarm MCP Bridge

基于 Model Context Protocol (MCP) 的服务器端实现,提供一个后端框架用于向 LLM 客户端以标准化方式暴露资源、工具和提示模板,并能对接和聚合多个外部 MCP 服务器进行统一管理与调用。

AI与计算

AKCS Knowledge Capture MCP 服务器

基于 Model Context Protocol 的 MVP MCP 服务器实现,提供知识分析、沉淀与存储能力,通过标准化的 JSON-RPC 交互向 LLM 客户端提供资源、工具和提示模板等能力,支持标准的 STDIO 通信模式,适合作为后端知识上下文服务。

AI与计算

ClawRAG MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,为 OpenClaw 等 LLM 客户端提供标准化的资源、工具和提示模板服务,支持 StdIO/HTTP SSE 等传输方式,通过 JSON-RPC 与客户端通信并暴露 MCP 工具与服务器信息。

AI与计算

CyberMem MCP 服务器端实现

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源(Resource)、工具(Tools)和提示模板(Prompts)的注册、管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议(如 Stdio、HTTP 流和 SSE)。实现了会话管理、能力声明以及对外暴露的内存引擎(OpenMemory/SQlite),可用于在本地或远程环境中为LLM客户端提供统一的上下文服务。

AI与计算

xfmr-zem

基于 Model Context Protocol (MCP) 的后端服务器集合,提供资源管理、工具执行和提示/模板渲染,并通过 JSON-RPC 与 LLM 客户端通信;底座集成 ZenML 进行生产级管道编排,支持多种传输方式与会话管理,构建可扩展的上下文服务框架。该仓库实现了多个 MCP 服务器单元及其客户端集成,具备可运行的服务端代码与示例用例。

开发者工具

Artemis City MCP 后端

基于 Model Context Protocol (MCP) 的后端服务,实现对 Obsidian 记忆库的读写、资源管理与工具执行的统一接口,提供 JSON-RPC 风格的请求/响应,包含认证、日志、路由与可扩展的插件架构,支持与多种前端/LLM 客户端协作。

网页与API

Bitbucket MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供通过 MCP 客户端以标准化 JSON-RPC 方式访问 Bitbucket Cloud 的资源、工具和提示模板,支持在 stdio 传输下与 LLM 应用对接。

AI与计算

ShipUI MCP 服务端

基于 Model Context Protocol (MCP) 的 ShipUI 后端实现,提供资源托管、工具注册与执行、以及提示模板的 MCP 服务端,能通过 JSON-RPC 与各类 MCP 客户端通信,支持标准的会话管理与多传输通道(如标准输入输出)。

AI与计算

Dynatrace Managed MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,能够托管 Dynatrace Managed 环境的资源、注册并执行工具、定义并渲染提示模板,并通过 JSON-RPC 与多环境客户端进行通信,提供本地或远程传输模式的上下文服务与能力声明。中间集成了对资源、工具、提示、以及多环境 Dynatrace 数据的统一管理与查询能力。

AI与计算

Local Brain MCP 服务端

基于 Model Context Protocol(MCP)的本地后端实现,向大型语言模型客户端以标准化的 JSON-RPC 方式提供资源管理、工具执行以及提示模板渲染能力,包含会话管理、能力声明,并支持多传输通道(以 stdio 为主)实现一个可扩展的上下文服务框架。

AI与计算

ZEJZL.NET MCP 服务端实现

基于 Model Context Protocol 的多服务器后端实现,向 LLM 客户端提供资源、工具及可渲染的提示模板等上下文服务,通过 JSON-RPC 与客户端进行通信,支持多种传输方式,具备注册、管理、执行工具以及安全治理等能力。

AI与计算

Mackerel MCP服务器

基于 Model Context Protocol 的 MCP 服务器,提供资源、工具与提示模板的后端服务,通过 JSON-RPC 与 MCP 客户端通信,内置对 Mackerel API 的多工具封装,支持多传输通道(如标准输入输出、SSE、WebSocket)以向大语言模型客户端提供可扩展的上下文服务。

AI与计算

Paperpipe PaperQA Retrieval MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,专门暴露 PaperQA2 检索能力给 LLM 客户端。通过 MCP 框架提供 JSON-RPC 风格的请求/响应接口,支持检索上下文片段、列出可用索引及查询索引状态等功能,适用于嵌入式上下文服务场景。

AI与计算

Altmetric MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端暴露工具(Tools)与外部数据源访问能力,通过 JSON-RPC 风格的请求/响应进行交互,并支持 STDIO 传输以便与本地或嵌入式 LLM 集成。

AI与计算

Acture MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,向 MCP 客户端提供资源(数据访问)、工具(可执行外部功能)以及提示模板(Prompts)的统一上下文服务,采用 JSON-RPC 与客户端通讯,支持本地/标准化传输方式,集成 Notion 发表与 GitHub 数据源等能力,面向 AI 驱动的工程上下文工作流。

网页与API

Open MCP App 服务器实现

基于 MCP Apps 规范的后端服务实现,提供资源的注册与管理、工具的注册与执行、以及按规范渲染与传递 UI 资源,支持多主机环境并通过 JSON-RPC 与客户端通信,包含服务端核心逻辑、中间件、实验性扩展与测试用例。

AI与计算

openai-responses-mcp

基于 Model Context Protocol (MCP) 的轻量级后端服务器,提供对 LLM 客户端的上下文服务(资源、工具、提示等),通过 JSON-RPC 进行通信,支持以标准化方式读取资源、注册并执行工具、渲染 Prompt 模板,核心实现包含服务器端的请求/响应处理、会话管理与多传输协议支持(以 stdio 为核心的实现,具备行分隔及 Content-Length framing 方式)。

AI与计算

Spark-MCP 服务器端

基于 Model Context Protocol 的后端服务器,向大语言模型(LLM)客户端以标准化的 JSON-RPC 形式提供资源、工具和提示模板等上下文服务,并通过 SSE/HTTP 等传输协议实现资源托管、工具注册与 Prompt 渲染等核心能力。

AI与计算

MCP 服务端(前端边缘 MCP 服务器与代理)

基于 Model Context Protocol 的完整 MCP 服务器实现,提供浏览器端边缘节点与远程代理之间的 JSON-RPC 通信、资源与工具管理、事件存储/查询,以及多会话、多标签下的工具路由等能力,支持 WebSocket 与 HTTP 传输。该仓库不仅包含前端边缘设备的实现,还实现了用于代理端的 Node.js 服务器、以及与 MCP 协议对接的服务端组件,形成一套较完整的 MCP 服务端生态。]

AI与计算

Claude LTM MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供统一的资源管理、工具调用和提示渲染能力,以便向大模型客户端(LLM)提供可访问的上下文信息和功能。实现包含对资源(Memory)的托管、工具注册与执行,以及对提示/上下文的组织与渲染,支持通过标准输入输出(stdio)以及 TCP/HTTP 钩子等多种传输方式进行 JSON-RPC 交互。

AI与计算

Ohno-MCP-服务器

基于模型上下文协议(Model Context Protocol, MCP)的后端服务器实现,提供任务看板数据、工具方法以及提示模板等上下文能力,面向大语言模型客户端以 JSON-RPC 方式交互。支持本地化存储、可扩展的工具集合以及基于 MCP 的工具执行与上下文渲染能力。

AI与计算

Bedrock Model MCP Server

基于 Model Context Protocol (MCP) 的 Bedrock 模型信息查询与管理服务器,提供模型提供商、模型列表和推理配置等资源,支持以标准化 JSON-RPC 形式与客户端进行交互。

AI与计算

sindi-ai-mcp-server

基于 Model Context Protocol (MCP) 的 Java 实现的 MCP 服务器端,提供对资源、工具、提示的注册与执行,以及会话管理与多传输协议(REST/Servlet/SSE、Streamable HTTP)的支持,通过 JSON-RPC 与客户端进行通信。

AI与计算

Seren Model Context Protocol 服务端实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供对资源(Resource)、工具(Tools)及提示模板(Prompts)的管理与执行能力,并通过标准的 JSON-RPC 与客户端进行通信。支持多服务器配置、OAuth 与微支付等扩展能力,能够作为 LLM 客户端的上下文与功能提供端。

AI与计算

ForgeSyte Vision MCP 服务器

基于 Model Context Protocol 的可扩展后端,提供资源、工具与提示模板的 MCP 服务,通过 JSON-RPC 与 LLM 客户端交互,支持插件化视觉分析能力和多种传输方式。整个体系以 FastAPI/uv 工具链实现服务器端能力管理与会话管理。

AI与计算

Claw Control MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供对任务、代理人与消息等资源的管理,并通过 MCP 定义的工具接口向 LLM 客户端暴露可执行工具,支持通过标准的 JSON-RPC 风格请求与响应进行交互,传输可通过 STDIO(标准输入输出)实现,便于与 AI 模型或代理进行上下文协作。

AI与计算

UseAI MCP服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、提示模板渲染,并通过 MCP 外部端点集成远程工具,支持 AG-UI 协议与 JSON-RPC 风格通信,适配多传输通道(如 WebSocket、轮询等)以为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

MultiversX MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型(LLM)客户端提供资源管理、工具执行和 Prompt 模板渲染等标准化上下文服务,并通过 JSON-RPC 与客户端通信,支持 Stdio、HTTP 等传输模式与 UCP 发现、证据化资产流转能力。

AI与计算

tx MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)注册与执行、以及 Prompt 模板的自定义渲染,使用 JSON-RPC 与客户端通信,支持会话管理、能力声明并可通过多种传输协议(如 Stdio、SSE、WebSocket)对外暴露上下文服务,适用于让 LLM 客户端按统一协议获取上下文与外部功能。

AI与计算

J-Code MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务,作为 MCP 服务器向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文能力;通过 JSON-RPC(NDJSON/多传输协议)与客户端通信,支持会话管理、模型切换、跨服务协同等扩展能力,适配多种传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Distr MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与访问、工具注册与调用、以及提示模板的定义与渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式(如 STDIO、HTTP、WebSocket 等),用于为大语言模型提供统一的上下文与功能服务。

AI与计算

Open Sunsama MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供任务、时间块、子任务、用户等资源的管理和工具注册,面向 LLM 客户端通过 JSON-RPC 进行统一上下文服务与能力调用,支持 Stdio 等传输协议。)

AI与计算

Goodfoot MCP 服务器集合

基于 Model Context Protocol(MCP)的后端服务器集合,向大型语言模型客户端以标准化方式提供上下文信息与功能,包括托管资源、注册与执行工具,以及定义/渲染提示模板;支持多种传输协议(Stdio、SSE、HTTP),通过 JSON-RPC 与客户端通信,适用于 Claude Code 等工作流场景。

AI与计算

Cronitor MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源与工具的注册、对接外部数据源,并通过 JSON-RPC/stdio 方式与 MCP 客户端通信,以支持 LLM 场景下的上下文、工具调用与提示模板渲染。

网页与API

mcp-nexus

基于 Model Context Protocol(MCP)的后端服务器实现集合,提供 Tavily 与 Brave 的统一工具表面、密钥管理、鉴权以及 Admin UI 配套,支持通过 JSON-RPC 的 /mcp 端点进行资源访问、工具调用与 Prompt 渲染等核心 MCP 功能。

AI与计算

sqlew MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具、提示模板等上下文能力,支持通过 JSON-RPC 与 AI 客户端进行资源读取、工具调用和提示渲染,并实现会话管理、能力声明与多种传输协议的扩展性,为 AI 代理提供稳定的上下文记忆和操作能力。

AI与计算

MsgVault MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,向 MCP 客户端以标准化的 JSON-RPC 方式提供对离线邮件存档的上下文信息、资源访问、工具执行以及提示模板渲染等能力,便于与 Claude Desktop 等 MCP 客户端进行深度集成与对话式分析。该实现包含服务器端代码、会话管理与资源查询逻辑,支持通过多种传输通道与安全的本地部署方式进行扩展使用。

AI与计算

Fulcrum MCP 服务器实现

基于 Model Context Protocol 的 MCP 后端实现,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 与客户端进行交互,具备会话管理与多传输通道支持,适用于向大语言模型客户端提供结构化上下文与外部功能入口。

AI与计算

Veritas Kanban MCP 服务器

基于 Veritas Kanban 的 MCP 服务器实现,提供以 JSON-RPC 方式向 AI 助手/客户端暴露资源、工具、提示模板等上下文能力的后端服务,并支持多传输通道与会话管理。

网页与API

Supertable MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大模型客户端提供可读的资源、可注册并执行的工具,以及可渲染的提示模板,采用 JSON-RPC 形式在 stdio、HTTP(Streamable HTTP/SSE)等传输协议下进行通信,支持会话管理、能力声明与多传输通道扩展。该仓库同时提供完整的服务端实现与配套客户端示例,便于将大模型接入为上下文服务与外部功能入口。

开发者工具

Kubani Registry MCP Server

基于 Model Context Protocol(MCP)实现的服务器端,提供对 Kubani Registry 的资源、端点、模型、部署等元数据的标准化访问和工具调用入口,供大语言模型客户端进行上下文获取、功能调用与数据渲染等协作操作。

AI与计算

简单MCP 服务器示例

基于模型上下文协议的简单MCP服务器实现,提供工具注册与执行、资源管理、以及Prompt/模板等核心能力,采用JSON-RPC通过标准输入输出(stdio)与客户端通信,便于教育演示和本地测试。

AI与计算

Gemini File Search MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,注册并暴露一组用于文件检索、文档管理与查询的工具,供大语言模型客户端通过 JSON-RPC 调用、统一上下文信息与功能。

AI与计算

Patina MCP 服务端

Patina 是基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具、提示模板等上下文相关能力,通过 JSON-RPC 与 LLM 客户端通信,并支持多传输协议(如 Stdio、SSE、WebSocket)以便对接不同的客户端。该仓库包含实现 MCP 协议的服务端组件及相关基础设施,用于在本地或容器化环境中托管上下文数据与外部功能。

AI与计算

Claude Agent Ruby MCP Server

基于 Model Context Protocol (MCP) 的在进程内 Ruby 实现的 MCP 服务器,用于向 Claude Agent 提供工具、资源和提示等上下文能力,并通过 JSON-RPC 风格的 MCP 协议进行通信。

AI与计算

Hive MCP Tools Server

基于 Model Context Protocol (MCP) 的后台服务实现,用于暴露并管理资源、工具和提示模板给 LLM 客户端(通过 JSON-RPC),并提供 HTTP/STDIO 传输、健康端点与Creds 集成等核心能力。

开发者工具

FastMCP Rust — 高性能 MCP 服务端框架

基于模型上下文协议(MCP)的 Rust 实现框架,提供标准化的服务端能力以向 LLM 客户端暴露资源、工具和提示,并通过 JSON-RPC 进行通信,附带测试服务器示例以验证协议交互和渲染输出。

AI与计算

Thanos MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化的 JSON-RPC 方式向 LLM 客户端提供资源管理、工具注册/执行以及 Prompts 渲染等能力,并支持多传输协议(如 Stdio、SSE、WebSocket),实现会话管理、能力声明和可扩展的上下文服务框架。

开发者工具

Maestro 状态报告 MCP 服务器实现(Rust STDIO JSON-RPC)

基于 Model Context Protocol 的 MCP 服务器实现,提供 maestro_status 工具用于向 Maestro UI 汇报会话状态,并通过 JSON-RPC 与客户端交互,支持 initialize、tools/list、tools/call、notifications/initialized 等消息。服务器通过 STDIO 与 MCP 客户端通信,兼容 Maestro 的状态上报与会话管理,集成在 Maestro 的 Tauri 应用中用于多会话上下文服务。

AI与计算

SimpleMem MCP Server

基于 Model Context Protocol (MCP) 的多租户后端服务器,实现资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,并通过 JSON-RPC 与客户端进行通信,支持 HTTP/Streamable HTTP 和 SSE 等传输协议。

AI与计算

Thread MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供会话线程的托管与管理、工具注册与执行、以及输出格式的渲染;通过 JSON-RPC 与 MCP 客户端通信,支持本地与远程存储,以及通过标准输入输出(stdio)等传输方式进行交互,适用于在 LLM 应用中提供上下文与功能服务。

开发者工具

AgentOS MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与 Prompt 模板的注册、管理、执行与渲染,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式与会话管理,便于 LLM 客户端获取上下文信息与外部功能。

AI与计算

Phoebe MCP 服务器(Node 实现)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具执行与提示模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 两种传输模式,便于将 AI 助手接入 Phoebe API 的上下文与功能。

AI与计算

hono-mcp-server

基于 Model Context Protocol (MCP) 的后端服务器,将 Hono API 端点暴露为 MCP 工具,核心实现包括资源托管、工具注册/执行、提示模板渲染,并通过 JSON-RPC 与客户端通信,支持多种传输协议(如 Stdio、SSE、WebSocket),为 LLM 客户端提供安全、可扩展的上下文服务。

AI与计算

DesignerPunk MCP Documentation Server

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务;通过 JSON-RPC 进行请求/响应,并支持会话管理、能力声明与多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。

AI与计算

Mira MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具调用与提示模板渲染的标准化上下文服务,并通过 JSON-RPC 与 Claude Code 等客户端交互,支持可扩展的传输模式与会话管理。

开发者工具

Lights-Out Discovery MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源发现、工具注册与执行、以及通过 JSON-RPC 与 LLM 客户端交互的能力,用于向 LLM 应用提供上下文信息与外部功能。该服务器以 MCP 规范为核心,托管并管理资源、注册工具、渲染提示模板等,支持标准的请求/响应流程。

开发者工具

mockd MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器,实现对资源、工具和提示模板的统一管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议以适配不同应用场景。

AI与计算

MCP IntelliBench - Model Context Protocol 服务器实现

基于 Model Context Protocol 的后端服务实现,提供资源、工具、提示等统一管理,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 SSE)。完整的 MCP 服务器端实现,包含服务初始化、挑战/结果管理、评测与分析、以及对外暴露的健康端点。

AI与计算

Valence MCP 服务器端

基于 Model Context Protocol (MCP) 的后端实现,作为 LLM 客户端的上下文服务提供者,托管与管理 Resources(资源)、Tools(工具)以及 Prompts(提示模板),并通过 JSON-RPC 与客户端进行请求/响应通信,支持多传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

MCP 服务器实现示例(JavaScript 与 Java)

本仓库提供基于 MCP 的服务器实现示例,包含 JavaScript 与 Java 两种实现,展示如何注册工具、提供能力、以及通过标准化的 JSON-RPC 与 LLM 客户端交互,支持多种传输协议并进行会话与能力声明管理。

AI与计算

Orchestra MCP 服务器

基于 Model Context Protocol 的后端服务,使用 FastAPI 构建,提供资源、工具与提示模板等 MCP 功能,并通过 JSON-RPC 与客户端通信为大型语言模型客户端提供上下文和能力服务(如资源访问、工具调用与提示渲染)。服务器通过对外暴露的 MCP 路由实现对接、会话管理与多传输协议的支持(如 SSE/StdIo/WebSocket 等),以实现可扩展的上下文服务框架。

AI与计算

Axiom MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端通过标准化的 JSON-RPC 方式提供资源、工具与提示模板等上下文信息,并支持开发/生产两种模式、以及通过标准传输通道进行通信。

AI与计算

CyberChef MCP 服务器

基于模型上下文协议(MCP)的后端服务器,将 CyberChef 的海量数据处理操作和工具暴露给对话式AI客户端,支持资源管理、工具注册与执行,以及可定制的提示模板渲染,且通过 JSON-RPC 与客户端通信,覆盖多种传输方式(STDIO、HTTP、SSE、WebSocket),帮助生成式AI在执行数据处理任务时获得稳定、可扩展的上下文服务。

AI与计算

Bugsy MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管与管理、注册与执行工具、以及 Prompt 模板的定义与渲染,面向大型语言模型(LLM)客户端,通过 JSON-RPC 与客户端通信,并支持会话管理、能力声明以及多种传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AI与计算

Sirchmunk MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供对 Sirchmunk 的资源托管、工具注册与执行,以及提示模板渲染等能力,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文与功能服务。

网页与API

MCP Agent Mail 服务端(Rust 实现)

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板的托管与执行,并通过 JSON-RPC 形式对接 LLM 客户端,支持多传输方式(如标准输入输出/HTTP),为 LLM 应用提供安全、可扩展的上下文服务。

AI与计算

Abathur Swarm MCP服务器

基于 Model Context Protocol (MCP) 的后端实现,围绕资源管理、工具注册/执行和提示模板渲染,提供通过 JSON-RPC 与 LLM 客户端通信的服务器能力,并在内置组件之间暴露资源、工具、提示等接口,支持多种传输方式与会话管理。该仓库包含用于 Memory/Task/A2A/Events 的 MCP 相关服务端实现以及一个用于启动 MCP 服务器的命令行接口。

AI与计算

Farnsworth MCP 服务器

基于 Farnsworth 的 Model Context Protocol(MCP) 服务端实现;通过 MCP 协议向 MCP 客户端暴露资源管理、工具注册/执行以及提示模板等能力,支持多传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明,提供一个安全、可扩展的上下文服务后端。

数据库与文件

PostgreSQL MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务,连接 PostgreSQL 数据库,为大语言模型客户端提供统一的资源、工具和上下文能力,以实现安全、可扩展的上下文访问与操作。

AI与计算

Interactive Review MCP 服务端

基于 Model Context Protocol(MCP)的服务器端实现,为 Claude Code 插件提供一个“交互式 Markdown 审阅”工具。通过 MCP 的 JSON-RPC 风格调用,LLM 客户端可以注册工具、读取可用工具、调用 start_review 进行 Markdown 内容审阅,并在本地浏览器中以交互界面收集审核结果,服务器再返回结构化结果。

AI与计算

HyperPod InstantStart MCP 服务端

基于 Model Context Protocol(MCP) 的后端服务器实现,提供资源管理、工具注册与调用、以及 Prompt 模板渲染等能力,供 LLM 客户端以标准化方式获取上下文、数据与外部功能。

AI与计算

Raku MCP SDK

基于 Model Context Protocol (MCP) 的完整服务器端实现与示例,提供 JSON-RPC 2.0 交互、Stdio/HTTP 等传输、资源/工具/提示的管理,以及会话与扩展能力,面向将 MCP 服务化以供 LLM 客户端调用的后端应用。

AI与计算

GitHub Agentic Workflows MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文、数据访问和外部功能调用能力。

AI与计算

Agent Consent Protocol (ACP) MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具拦截、策略评估、人工同意、凭证注入与审计日志等核心能力,并通过 JSON-RPC 与 MCP 客户端进行通信,支持与上游 MCP 服务器协同工作及多种交互通道(如终端、Telegram、Webhook)。

AI与计算

Kaizen Health Sentinel MCP 服务器

基于 Model Context Protocol (MCP) 的 JSON-RPC 服务器实现,提供健康监控、健康态势证据 attestations、全局与回声脉冲等工具与资源接口,供 LLM 客户端通过 MCP 协议读取资源、执行工具、获取健康信息并提交证据。

AI与计算

Claude MCP 服务器实现集(Databricks DevTools 与 Conversation Memory)

基于 Model Context Protocol (MCP) 的服务器实现集合,提供将工具、资源和对话记忆等能力暴露给 LLM 客户端的服务端组件。仓库中包含至少两个完整的 MCP 服务器实现(Databricks DevTools 与 Conversation Memory),采用 JSON-RPC 通信、支持标准化的工具注册与调用、并通过 stdio 传输与客户端交互,适配插件化的后端能力管理场景。

AI与计算

tooltest MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/管理、Prompt 的定义与渲染,以及会话管理与协议能力声明,支持通过标准输入输出或流式 HTTP 等传输协议与客户端进行 JSON-RPC 通信,用于为大型语言模型(LLM)提供上下文信息与外部功能访问能力。

AI与计算

Pocket Agent MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等上下文服务,能够通过 JSON-RPC 与 LLM 客户端进行资源读取、工具调用与模板获取等交互,并支持多种传输协议以实现安全、可扩展的上下文服务。

AI与计算

Jarvis MCP 服务端 + Agent

基于模型上下文协议(MCP)的后端服务,提供资源、工具和提示模板的管理与渲染,并通过 JSON-RPC 与 LLM 客户端通信;内置 Notion 数据源作为底层存储,包含一个独立的 Agent 服务用于将自然语言转化为可执行工具调用。

AI与计算

ELF-MCP 服务器实现

基于 ELF 的 MCP 服务器实现,提供对大型语言模型(LLM)客户端的资源、工具调用与提示模板的上下文服务。通过 JSON-RPC 风格的 MCP 协议,将对资源和工具的访问请求转发到 ELF HTTP API,支持多种传输和会话模式,易于与 Claude 等 MCP 客户端对接。

网页与API

Roo Extensions MCP 服务器集成

Roo Extensions 是一个面向开发者的 MCP 服务器生态,基于 Model Context Protocol 提供面向 LLM 客户端的资源管理、工具注册与执行以及可定制 Prompt 渲染等能力,核心通过 JSON-RPC 与客户端通信,并在多传输协议(如 Stdio、SSE、WebSocket)下提供会话管理、能力声明与扩展性,支持多 MCP 实例协同工作与跨机器同步。仓库中包含多个内部/外部 MCP 实例、同步系统 RooSync、SDDD 跟踪等组件,构成完整的后端上下文服务框架。

AI与计算

Actionbook MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,为大语言模型客户端提供规范化的资源管理、工具注册与执行、以及可渲染的 Prompt 模板等上下文服务,支持 JSON-RPC 通信、会话管理与多传输通道。

AI与计算

Stitch MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具与提示模板的托管、注册与渲染能力,并通过 JSON-RPC 与 LLM 客户端通信。内置会话管理、能力声明以及支持多传输协议的 MCP 服务器代理功能,面向大语言模型应用提供安全、可扩展的上下文服务框架。

AI与计算

Argus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端提供资源管理、工具注册/执行以及提示模板渲染等标准化上下文服务,支持多传输协议并实现会话与能力声明等 MCP 核心能力。仓库中包含用于集成 LispLang LangGraph 与 Playwright 的 MCP 服务实现、以及与 Argus E2E 测试引擎的对接插件。

AI与计算

Linear SQLite MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,使用 SQLite 数据库提供资源、工具与提示模板管理,供 LLM 客户端查询并执行外部功能,通过 JSON-RPC 与客户端进行通信,并支持会话管理与多种传输形式。

网页与API

模型上下文协议(MCP)后端服务器实现—Cocos CLI 组件

基于模型上下文协议(MCP)的后端服务器实现,专注为大语言模型客户端提供标准化的上下文服务:托管资源、注册并执行工具、定义和渲染Prompt模板;通过 JSON-RPC 进行通信,具备会话管理与能力声明,并支持多种传输通道,以实现安全、可扩展的上下文服务框架。

网页与API

UNITARES Governance MCP 服务器实现

基于 Model Context Protocol(MCP)理念的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIN/STDIO、SSE、WebSocket)与会话管理,目标是在大语言模型客户端上提供结构化、可扩展的上下文服务。该仓库包含服务器端示例、核心数学与治理逻辑、工具与会话处理等模块,适用于搭建多智能体后端上下文服务场景。

AI与计算

enjoy MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,提供通过 JSON-RPC 与 LLM 客户端进行交互的能力,允许对工具进行注册与执行、获取项目状态与排行榜等,并通过标准传输(如 STDIO)实现与 Claude/GPT 等客户端的无缝对接。

开发者工具

Free Crypto News MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供 MCP 的核心能力:注册并执行工具(Tools)、托管资源与数据,以及通过 JSON-RPC 风格的交互向 LLM 客户端提供上下文与功能,支持多传输协议(stdio 与 HTTP/SSE)以便与不同的 AI 客户端对接。项目中包含可运行的 MCP 服务器代码和 HTTP/SSE 传输实现,适合作为对接大模型代理的后端服务。

AI与计算

Conscious Bot MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,作为 LLM 客户端的标准化上下文服务入口,提供资源托管、工具注册/执行、提示模板定义与渲染等能力,并通过 JSON-RPC 与前端/其他组件进行通信,支持嵌入式部署与回退模式,便于实现可扩展的上下文服务框架。

AI与计算

SystemPrompt MCP 服务器套件

基于 SystemPrompt 的 MCP 服务器实现集合,提供资源管理、工具注册与执行、以及提示模板渲染等 MCP 核心能力,供大语言模型客户端通过 JSON-RPC 获取上下文信息与外部功能,并支持多种传输与会话场景。仓库中包含多个 MCP 服务器实现(如 systemprompt、moltbook、content-manager),共同构成一个可扩展的 MCP 后端生态。

开发者工具

Mist MCP Server

基于 Model Context Protocol 的后端服务器,向 LLM 客户端以标准化方式提供上下文资源、可执行工具和可渲染的 Prompt 模板,支持多传输协议(如 STDIO、HTTP、SSE、WebSocket),并实现会话管理与工具加载策略。

网页与API

Verkada 模型上下文协议服务器端实现

基于模型上下文协议(MCP)的 Verkada API 后端服务器,提供资源管理、工具注册与执行,以及提示模板渲染等能力,通过 JSON-RPC 与大语言模型客户端进行通信,具备本地部署与扩展能力,并内置对 Verkada API 的工具集和请求处理框架。

AI与计算

OneTool MCP 服务器

基于 Model Context Protocol 的后端服务器实现,向大语言模型客户端提供资源托管、工具注册与执行,以及可渲染的 Prompt 模板,采用 JSON-RPC 进行通信,支持多种传输协议并具备会话管理与能力声明。

通信与社交

Discord MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,通过 Dedalus MCP 框架向 LLM 客户端提供 Discord API 的上下文信息与功能,包含一组可调用的工具(例如发送消息、读取历史、获取服务器信息等),并通过 JSON-RPC 与客户端通信。

AI与计算

Path402 MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为对话型LLM客户端的后端服务,托管并管理资源(Resources)、注册与执行工具(Tools)、定义并渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输方式,提供会话管理和能力声明的上下文服务框架。

AI与计算

Skwad MCP Server

基于 Model Context Protocol 的机器学习代理协同后端,嵌入在 Skwad macOS 应用中,提供资源、工具和提示的 JSON-RPC 访问接口,供本地和远程的 LLM 客户端通过 MCP 进行上下文服务和任务协作。

AI与计算

NodeSpace MCP Server(核心实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)注册与执行、以及 Prompt 模板的渲染与管理,通过 JSON-RPC 2.0 与本地的 LLM 客户端进行通信。支持多传输协议(如 StdIO、HTTP 及 SSE),具备会话管理、能力宣告和安全可扩展的上下文服务能力,适用于在本地环境下为本地 AI 助手提供稳定的上下文及外部能力接入。

AI与计算

MCP 后端服务器实现(Alex 系列多组件协作)

基于 Model Context Protocol (MCP) 的后端服务器实现,承载资源、工具和提示模板,并通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持多种传输模式,便于向 LLM 客户端提供统一的上下文信息和功能入口。

AI与计算

Poe Code MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板的托管与管理,以及通过 JSON-RPC 与客户端进行通信,支持多传输通道,供大语言模型应用安全、可扩展地获取上下文与外部功能。

AI与计算

Neo4j MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 Neo4j 资源访问、工具执行和提示模板渲染等能力,采用 JSON-RPC 进行通信,支持 STDIO 和 HTTP 传输模式,为大语言模型(LLM)应用提供标准化的上下文和功能服务。

AI与计算

Tweek MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与管理、工具注册与执行、以及 Prompt 模板渲染等核心功能,能够通过 JSON-RPC 与 LLM 客户端进行上下文信息与功能的标准化交互。服务器端负责会话管理、能力声明与多传输通道支持(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

开发者工具

Optiaxiom MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,为大语言模型(LLM)客户端提供标准化的资源、工具执行能力以及提示模板的数据与接口,通过 JSON-RPC 进行通信,并通过标准传输(如 STDIO)提供会话管理与能力声明。该实现从组件、图书、图标及设计令牌等 Design System 元数据出发,支持查询、搜索、获取 Tokens 等能力。

开发者工具

Coinbase MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 CoinBase Advanced Trading API 的资源管理、工具注册与执行,以及用于 Claude 等大语言模型的提示模板渲染与自助交易能力。服务器通过 JSON-RPC 与客户端通信,支持 HTTP(/mcp)、标准输入输出(stdio)等传输方式,并内置工具与提示注册、会话管理与安全日志处理。实现不仅包含完整的 MCP 服务端逻辑,还提供大量工具的注册、Prompts、以及用于自动交易技能的集成示例。

AI与计算

Whenny MCP 服务器

基于 Model Context Protocol 的服务器端实现,向客户端暴露 Whenny 的日期与时间相关工具,支持通过 JSON-RPC 请求执行工具、注册与查询工具、以及基于时区的传输/时区上下文等功能,适用于将日期服务接入到 AI 客户端的上下文环境中。

AI与计算

Hegelion-MCP 服务器实现

基于 Model Context Protocol(MCP)的通用后端实现,提供 dialectical 问答流程、自动编码工作流、资源与工具管理,以及基于 Prompt 的模板渲染。通过 JSON-RPC 与客户端通信,支持资源读取、工具调用、Prompt 获取与渲染等核心 MCP 功能,并实现会话管理、能力声明以及多传输通道的扩展能力(如 StdIO、SSE、WebSocket 等)以为 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

ContextVM MCP服务器实现 SDK

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册与管理、提示模板定义,并通过 JSON-RPC 协议与 LLM 客户端进行上下文和功能交互,支持多种传输层(如 Nostr、Stdio 等)的安全扩展和会话管理。

AI与计算

DaisyUI MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供 DaisyUI 组件文档、资源和工具的访问与执行能力。

商业系统

Dolibarr MCP 服务器端实现

基于 Model Context Protocol 的 Dolibarr ERP/CRM 的 MCP 服务器实现,提供资源/工具/提示等上下文服务,支持 STDIO 与 HTTP 传输,通过 MCP 协议与客户端进行 JSON-RPC 交互,实现对 Dolibarr 的完整后端集成能力。

AI与计算

AdCP销售代理 - MCP上下文协议服务器实现

基于模型上下文协议(AdCP)的后端服务器实现,提供资源(Resources)托管与管理、工具(Tools)注册及执行、以及提示模板(Prompts)的定义与渲染,并通过JSON-RPC 与客户端通信,支持多租户、多传输协议(如官方的Stdio、SSE、WebSocket)以为LLM应用提供安全、可扩展的上下文服务框架。

AI与计算

Email MCP Server 示例

一个基于 MCP(Model Context Protocol)协议的后端实现示例,专注于模拟一个邮件发送工具的注册与调用,通过标准的 MCP 流程向客户端暴露工具并支持通过 STDIO 传输与客户端通信。

网页与API

Metronome MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源/上下文能力的托管,以及通过 JSON-RPC 与客户端通信的能力,支持多种传输方式(stdio、HTTP),用于为 LLM 客户端提供稳定、安全、可扩展的上下文服务。

AI与计算

Ripperdoc MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器,向大语言模型客户端提供资源管理、工具注册/执行和提示模板渲染等能力,并通过 JSON-RPC 进行通信与协作,支持多传输协议(如 Stdio、SSE、WebSocket)和会话管理,提供安全、可扩展的上下文服务框架。

开发者工具

FrontMCP 服务器端框架与插件集合

基于 Model Context Protocol (MCP) 的 TypeScript 服务器端框架,提供资源(Resource)、工具(Tool)、提示(Prompt)等上下文服务,并通过插件体系扩展能力,支持多传输协议(如流式HTTP、SSE、WebSocket)与会话管理,面向构建可扩展的 MCP 后端应用。

开发者工具

ctfd-mcp 服务端(MCP后端)

基于 Model Context Protocol (MCP) 的后端服务器,实现对 CTFD 的挑战资源、容器化运维工具的执行,以及对外暴露的资源接口,通过 JSON-RPC 与客户端通信,提供可扩展的上下文服务以支持 LLM 交互。

AI与计算

npcpy MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具与提示模板的托管、注册与渲染,并通过 JSON-RPC 风格接口与客户端交互,支持会话管理、能力声明与多种传输方式(如 StdIO、SSE、WebSocket)。

网页与API

gh-actions-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端以标准化方式提供 GitHub Actions 的上下文信息、工具和提示模板,并通过 JSON-RPC 与客户端通信,支持以 Stdio 传输模式运行,便于在 Claude Desktop 等环境中集成使用。

开发者工具

Claude Code Harness MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现。该服务器通过 JSON-RPC 提供对工具的注册与执行、会话管理及跨客户端通信能力,支持多工具整合、Plans 与会话监控等功能,并通过标准传输(如 STDIO)与 MCP 客户端进行交互。该实现可作为 LLM 客户端(如 Claude Code、Codex 等)访问的上下文服务后端。

AI与计算

Cognitive Modules

基于Model Context Protocol的结构化AI任务执行服务器,提供标准化上下文和功能调用服务,支持LLM客户端多协议接入。

AI与计算

Discogs MCP 服务器

基于 Model Context Protocol 的 Discogs 数据 MCP 服务器,向大型语言模型客户端提供资源读取、工具执行和提示模板渲染等能力,并通过 JSON-RPC 与客户端通信,支持会话管理、鉴权与缓存等核心功能。

AI与计算

Mantic.sh MCP 服务端实现

基于 Model Context Protocol 的后端服务器实现,向大语言模型客户端提供统一的上下文服务,包括资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,支持 JSON-RPC 通信和多传输通道(如 STDIO/WebSocket/SSE)以供 AI Agent 调用。

AI与计算

elephant.ai MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,负责与 MCP 客户端通过 JSON-RPC 协议通信,注册并执行外部工具、管理资源与提示模板,并支持多种传输方式(如 STDIO、HTTP SSE),提供会话管理、能力声明及外部工具的接入能力。

AI与计算

Kernle MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具执行与提示模板渲染等功能。服务器通过 JSON-RPC 与客户端进行通信,支持资源读取、工具注册/执行、以及提示模板的定义与渲染,並可通过多种传输方式(如标准输入输出、SSE、WebSocket)扩展到不同的应用场景。该实现与 Kernle 的核心存储/推理能力紧密集成,面向企业/研究场景提供安全、可扩展的上下文服务后台。

AI与计算

ClawStreetBets MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,将 ClawStreetBets 的市场与代理管理功能暴露给 AI 客户端,允许通过 JSON-RPC 调用工具、查询资源以及执行投票等操作,并通过 STDIO 传输进行交互。

网页与API

v1.npm MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供 npm 包的上下文、健康数据与可用工具,通过 JSON-RPC 形式处置资源、工具、提示模板等能力,并支持 MCP 客户端的连接与调用。

AI与计算

JobTread Tools Pro MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,向大模型客户端提供资源、工具、Prompts 等上下文服务,并通过 JSON-RPC/SSE/HTTP 协议进行通信与协作。该仓库实现了 MCP 服务端核心逻辑、工具注册、知识查询等能力。

AI与计算

Agentic MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端实现,提供服务器端工具注册、跨模型查询以及服务器端函数发现与调用的 JSON-RPC 服务,支持通过 STDIO 等传输方式与客户端交互。

开发者工具

Grafema MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型(LLM)客户端提供资源托管、工具注册与执行、以及 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多传输协议(如 StdIO、SSE、WebSocket)进行安全、可扩展的上下文服务交互。

AI与计算

MCP Vector Search 服务器端

基于 Model Context Protocol (MCP) 的后端服务实现,作为 MCP 客户端的服务器端,托管与管理资源、注册与执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端通信,提供会话管理、能力声明及多传输协议支持的上下文服务框架。该仓库实现了 MCP 服务器端的核心功能,并与向量检索后端(嵌入、数据库等)进行整合。

网页与API

Kubescape MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源(Resource)托管、工具(Tools)注册与执行,以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,提供安全、可扩展的上下文服务,便于 LLM 进行集成查询和调用外部功能。

开发者工具

ClaudeMemory MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供对资源、工具与提示模板的统一管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明以及多种传输方式,用于在代码分析与开发场景中提供可扩展的上下文服务。

AI与计算

BoxLang-MCP 服务器

基于 Model Context Protocol (MCP) 的 BoxLang 后端服务器实现,提供对 Resources、Tools 与 Prompts 的注册、管理与暴露,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 客户端提供标准化的上下文服务、会话与能力声明。

AI与计算

Tabularis MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与数据访问、工具注册与执行、以及用于 LLM 的 Prompt 模板渲染。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(Stdio)传输,读取客户端请求并输出响应;同时具备会话管理、能力声明与资源/工具渲染等核心能力,便于外部代理或图形化客户端接入以提供上下文信息与外部功能调用。

网页与API

CrawlChat MCP 服务端实现

基于模型上下文协议的 MCP 服务器实现,提供资源、工具和提示模板的后端能力,通过 JSON-RPC 与客户端通信,注册并执行工具、管理会话并支持简单的 stdio 传输。

开发者工具

MoonBit MCP 服务器端 SDK

基于 MoonBit 的 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册和提示模板等上下文服务,并通过 JSON-RPC 进行稳定的通信。

AI与计算

SM-Assistant MCP Server (基于 FastMCP 的多域工具服务器)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的托管与通过 JSON-RPC 与客户端通信的后端服务。

AI与计算

DeepCode MCP Server合集

一组基于 Model Context Protocol (MCP) 的 MCP 服务器实现集合,提供资源读取、代码/文档处理、代码索引、网页/文件检索等工具服务。通过 FastMCP 等框架实现服务器端的工具暴露与JSON-RPC通信,支持多种服务器脚本独立运行,用于向 LLM 客户端提供统一的上下文、工具执行和提示渲染能力。

AI与计算

Linggen MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供以标准化方式向 LLM 客户端提供上下文信息和功能的能力。通过 JSON-RPC 与客户端通信,核心包含工具注册/执行、提示模板渲染,以及与资源/查询接口的集成。当前实现使用 stdio 传输,在服务端对接 Linggen 后端 API 提供的能力,支撑 LLM 在设计、索引与查询场景中的上下文服务。

AI与计算

Helicone MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端暴露 Helicone 的数据资源与工具,并通过 JSON-RPC 进行通信;当前实现注册了若干工具(如 query_requests、query_sessions、use_ai_gateway),实现了通过标准输入/输出的传输(Stdio)运行方式,以供 LLM 客户端调用与交互。

AI与计算

LlamaCloud MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,作为 LLM 客户端的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力;通过 JSON-RPC 与客户端通信,支持多传输(如 STDIO、HTTP),并包含会话管理、能力声明与日志控制等核心特性。

AI与计算

cqs 代码上下文 MCP 服务器

基于模型上下文协议(MCP)的本地后端服务,提供资源管理、工具注册与执行,以及提示模板渲染等能力,支持 STDIO 与 HTTP 传输,面向与 LLM 客户端的上下文服务与对接。

开发者工具

Gerbil MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供 Gerbil Scheme 运行时的资源、工具与提示模板等能力,通过 JSON-RPC 与客户端进行标准化通信,支持多种传输方式(如 stdio)。

AI与计算

Inspector:基于模型上下文协议的本地MCP服务器实现

一个完整的MCP服务器实现,提供资源、工具、提示模板等上下文服务,支持JSON-RPC通信、会话管理与多传输协议,面向本地开发、调试和集成OpenAI/Claude等LLM应用。

网页与API

The Situation Room MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供标准化的资源、工具、Prompts 等能力,通过 JSON-RPC 与客户端通信,支持公开的 MCP 接入点与工具集注册,便于 LLM 客户端获取上下文信息、执行外部功能与获取 Prompt/模板等能力。

网页与API

MIESC MCP服务器实现

基于 MIESC 的 MCP(Model Context Protocol)服务器实现,提供资源托管、工具注册与执行、提示模板定义等功能,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输协议的上下文服务能力。

AI与计算

LocalMCP Server (Bedrock AgentCore 本地原型实现)

基于 Model Context Protocol 的 MCP 服务端实现,提供资源、工具与会话管理,使用 JSON-RPC 进行通信,支持本地运行与演示。

AI与计算

XPollination MCP 服务器端

基于 Model Context Protocol(MCP)的后端服务器,提供资源管理、工具注册与执行、以及提示模板的标准化上下文服务,面向 LLM 客户端通过 JSON-RPC 进行通信与交互。

AI与计算

AdCP MCP 服务器

基于 Model Context Protocol(MCP)的广告自动化后端实现,提供资源、工具和 Prompt 模板的托管与管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Arctic MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器端实现,提供资源(Resources)托管与管理、工具(Tools)的注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端进行安全、可扩展的上下文服务交互,支持多传输协议(如 Stdio、SSE、WebSocket)和会话管理等核心能力。

AI与计算

GH-AW MCP Gateway

基于 Model Context Protocol (MCP) 的后端网关实现,作为 MCP 服务器生态的核心网关,负责路由、聚合并管理后端 MCP 服务器,向 MCP 客户端提供一致的上下文、工具、资源等能力,并通过 Docker 容器或本地进程启动后端服务以实现 Stdio/HTTP 等传输模式和 JSON-RPC 通信。

开发者工具

Brave Real Browser MCP Server

基于模型上下文协议(MCP)的服务端实现,提供资源管理、工具注册与执行、以及Prompt模板渲染等核心功能,通过JSON-RPC与LLM客户端通信,支持多传输协议(如STDIO、WebSocket、SSE),并在浏览器自动化场景中实现对Brave浏览器及Puppeteer的可扩展上下文服务,适合为LLM代理提供可控、可扩展的上下文和能力服务。

AI与计算

Abstracts Explorer MCP Server

基于 MCP(Model Context Protocol)协议的后端服务器,向 LLM 客户端提供统一的上下文资源、可注册执行的工具以及可渲染的提示/模板,支持 JSON-RPC 通信、多种传输协议,以及会话管理与能力声明,便于在聚类分析、语义检索和论文上下文中为大语言模型提供可扩展的 contexto 服务。

AI与计算

Officetracker MCP 服务端

基于 Model Context Protocol(MCP)的后端实现,提供资源、工具和提示模板的上下文服务,供 LLP/LLM 客户端通过 JSON-RPC 方式访问办公室出勤数据,并在 HTTP 端点 /mcp/v1/ 提供 MCP 服务能力与工具执行能力。

AI与计算

Strands Agent SOP MCP 服务器

一个基于 Model Context Protocol (MCP) 的后端服务,加载内置与外部 SOP,将它们作为可调用的提示注册,通过 FastMCP 提供 JSON-RPC 服务供 MCP 客户端访问,用于向大型语言模型提供结构化上下文和功能性提示。

网页与API

LogicApps MCP Server

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。

AI与计算

MCP Gitea 服务端

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Gitea 实例的资源、工具与提示模板等上下文能力,支持资源访问、工具调用与提示渲染。

AI与计算

STRIDE GPT MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供 STRIDE 威胁建模框架、工具调用与报告生成功能,支持通过 JSON-RPC 与 LLM 客户端进行上下文管理与协作。

网页与API

MCP 控制端服务器实现(基于 FastMCP 的 OpenAPI 映射)

基于 Model Context Protocol (MCP) 的服务器实现,使用 OpenAPI/FastMCP 将 mcpproxy 的控制接口暴露为 MCP 工具,支持工具注册、路由过滤、以及与 MCP 客户端的 JSON-RPC 通信,便于对 MCPProxy 的安全、可扩展后端服务提供上下文和控制能力。

AI与计算

mssql-mcp-server

基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。

AI与计算

Memory System MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,采用知识图谱作为资源中心,提供工具调用、资源管理与结构化输出,支持 Neo4j 主存储与本地文件回退,并通过 JSON-RPC 的标准 MCP 规范与客户端进行交互,涵盖日志通知、错误码体系以及多传输通道的运行能力。

AI与计算

LLxprt-MCP Server(简化实现,面向集成测试)

基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端提供上下文信息、工具调用通道与 Prompts 渲染等功能;核心通过 JSON-RPC 与客户端通信,示例实现包含最小化的服务器以支持集成测试场景。

AI与计算

Koder MCP后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务,集成资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式(stdio、SSE、HTTP)以提供可扩展的上下文服务框架。

AI与计算

Agents Council MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,支持多代理协同的会话管理、工具执行和提示渲染,面向 LLM 客户端提供标准化的上下文服务。

AI与计算

Agentic QE MCP Server

基于 Model Context Protocol 的后端服务,作为 MCP 服务器向 LLM 客户端以标准化方式提供资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多传输协议接入(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

开发者工具

Sentinel — MCP 流量透传与观测代理

基于 Model Context Protocol (MCP) 的观测型后端代理,作为 MCP 客户端与服务器之间的透明中间件,实现对 JSON-RPC 请求/响应的零拷贝透传,同时提供实时可视化、历史日志与可选的审计签名能力,帮助开发者在不干预执行的前提下对工具链进行观测和回放。

AI与计算

Oh My OpenCode MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输协议与会话管理以实现安全、可扩展的上下文服务。

AI与计算

Overseerr MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。

AI与计算

ToolPlex MCP Server

基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行、提示模板管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议、会话管理与权限策略,以为大模型客户端提供安全、可扩展的上下文服务。

AI与计算

Agent Assistant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供工具注册、资源管理和提示模板渲染等核心能力,通过 JSON-RPC/Connect 框架与 MCP 客户端进行标准化通信,支持多个传输和会话能力,服务端还与前端 Web 界面和后端资源/工具链进行协作。

AI与计算

Claude Code Telegram MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源访问、以及与 LLM 的对话上下文渲染等核心能力。通过 JSON-RPC 与客户端通信,采用 STDIO 传输实现本地进程间通信,适用于 Claude Code 的 Telegram 插件后端场景。该实现涵盖工具调用、批量通知、审批流、AFK/监听等功能模块,具备完整的服务端能力与测试用例。

AI与计算

SynthFlow MCP 服务器

基于 Model Context Protocol (MCP) 的本地服务器实现,提供以 JSON-RPC 方式与客户端通信的能力,暴露工具调用入口并可扩展资源与提示等能力

AI与计算

MyVibe SDLC MCP 服务器组

基于 Model Context Protocol (MCP) 的后端服务器集合,面向软件开发生命周期(SDLC)的资源/工具管理、AI 审核与挑战、状态与流程管控等功能,提供标准化的 JSON-RPC 风格接口并支持多种传输方式(如 标准输入/输出、WebSocket、SSE 等)以供 LLM 客户端调用与协作。

AI与计算

Echo Noise MCP 服务端实现

基于模型上下文协议(MCP)的后端实现,提供资源、工具与 Prompt 的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket)以及会话与能力声明,并可通过 MCP 客户端接入扩展能力。该仓库在后端 Go 语言实现了核心服务,并在 README 提供了配套的 MCP 客户端服务(MCP 服务器端 bundles/示例及接入文档)。

AI与计算

Agent Deck MCP 服务器代理与池

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 MCP 服务器进程的托管、注册、JSON-RPC 桥接和多会话管理,供 LLM 客户端通过 MCP 获得资源数据、调用工具与渲染 Prompt 模板等上下文服务。

AI与计算

Rosetta Ruchy MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供翻译、分析与能力声明等核心服务,通过标准化接口向多语言客户端提供资源访问、工具执行与 Prompt 模板相关能力,并以 JSON-RPC 风格的 API 与客户端交互,具备会话管理、能力声明、以及可扩展的传输与部署方式,适配代码翻译及形式化验证等后续扩展场景。

AI与计算

Hanzo Model Context Protocol 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 客户端通信,支持多种传输通道,面向让大语言模型客户端高效获取上下文、能力和工具的后端服务。

AI与计算

Xiaozhi ESP32 MCP 服务器(Golang 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。

AI与计算

MCPU - MCP 服务器框架

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。

AI与计算

NiceVibes MCP 服务器

基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。

AI与计算

UDS-POS MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供标准化的资源(Resources)、工具(Tools)以及提示模板(Prompts),通过 JSON-RPC 与 LLM 客户端通信,支持多传输通道并对接 Supabase 数据源,构建面向 AI 赋能的上下文服务框架。该仓库包含一个完整的 MCP 服务器实现(含工具定义、资源暴露、提示模板以及 Prompt 执行逻辑),并以 Stdio 传输方式提供服务入口。

AI与计算

OpenMemory MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。

AI与计算

Silo 本地 MCP 服务器

基于 Rust 的本地 Model Context Protocol (MCP) 服务器,提供握手初始化、工具注册与调用,以及本地文件系统相关辅助功能,面向 LLM 客户端通过标准 JSON-RPC 在本地环境获取上下文信息与可执行工具

AI与计算

SeerLord MCP 服务端整合

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具、提示模板的标准化管理与渲染,支持 JSON-RPC 通信、会话管理及多传输协议,内置插件生态并实现了对外部工具与推理能力的统一接入与协作。

AI与计算

Supertag MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供资源、工具和 Prompt 的标准化上下文服务,并通过 JSON-RPC 进行通信;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力,适用于将 Tana 数据和功能暴露给 AI 模型进行推理、调用和渲染。

网页与API

Meow Notifier MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 服务器提供多昵称通知、工具执行和提示模板渲染,并通过 JSON-RPC 与 MCP 客户端通信。

AI与计算

tmcp-MCP服务器实现

基于模型上下文协议(MCP)的 Rust 实现,提供服务器端与客户端的完整 MCP 功能,包括资源、工具、提示的托管与管理,以及通过 JSON-RPC 的请求/响应处理,支持多传输通道(stdio、TCP、HTTP SSE)与会话管理,面向在 AI 应用中提供上下文与功能的后端服务。

AI与计算

ToolWeaver MCP Server

一款基于 Model Context Protocol(MCP)的后端服务器框架,向大语言模型客户端以标准化方式提供资源管理、工具注册/执行以及提示模板渲染等功能,支持 JSON-RPC 通信、会话管理、能力声明,并可通过多传输协议(如 Stdio、SSE、WebSocket)进行扩展与部署。

AI与计算

Klondike MCP Server(Klondike Spec CLI)

基于模型上下文协议(MCP)的后端实现,向 MCP 客户端暴露 Klondike Spec 的资源、工具和提示模板等能力,并通过 JSON-RPC 形式处理请求与响应,支持多传输协议用于与大型语言模型的无缝对接。

AI与计算

CodingBuddy MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具、Prompt 的托管、读取和渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议以提供安全、可扩展的上下文服务。

AI与计算

Docmost MCP Bridge 与 MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现与桥接组件,允许 LM 模型/代理通过标准 JSON-RPC 方式读取资源、调用工具、获取与渲染 Prompt 模板等,核心包含一个可运行的 MCP 服务端以及将 Cursor 等客户端接入 Docmost 的桥接层。

网页与API

Arivu MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。

AI与计算

Ada MCP 服务器实现

基于 Model Context Protocol(MCP) 的后端服务,作为本地大模型应用的上下文提供者。该服务器托管与管理 Resources(数据资源)、Tools(可注册并供 LLM 调用的外部功能)以及 Prompts(Prompt 模板渲染),通过 JSON-RPC 与客户端通信,完成会话管理、能力声明以及跨传输协议(如 Stdio、SSE、WebSocket)的上下文服务,方便编辑器、IDE 以及本地模型进行组合式推理与扩展。仓库中明确包含 MCP 集成组件、启动脚本及相关文档,具备对 MCP 客户端的完整支持能力。

AI与计算

MCP 系统监控服务器(Rust 实现)

基于 MCP 的系统监控后端,提供系统信息、资源数据、工具调用等能力,通过 JSON-RPC 与客户端通信,并支持 HTTP REST API 与 STDIO 两种传输方式,方便 AI 客户端与集成工具(如 OpenCode 等)进行远程监控与上下文服务。

网页与API

Sahai MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,实现资源、工具与提示模板的标准化上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与 SSE 实时推送。

开发者工具

Claude Skills MCP Server Pack

基于 Model Context Protocol 的 MCP 服务器实现集合,核心职责是以标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息和能力:托管与管理 Resources、注册与执行 Tools,并定义/渲染 Prompt 模板,同时支持会话管理与多传输协议,面向 Claude Code 等 LLM 应用的上下文服务后端。该仓库包含可运行的服务模板和示例服务器实现,旨在帮助开发者快速搭建符合 MCP 的后端服务。

AI与计算

ModelCypher MCP 服务器

ModelCypher MCP 服务器是一个基于 Model Context Protocol 的后端服务,提供资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明及多传输协议。

AI与计算

FHL Bible MCP Server

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。

网页与API

OSINT MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 提供资源、工具与提示模板给 LLM 客户端,并以标准化的方式与 OSINT 平台 API 对接,支持通过 Stdio 传输进行通信与会话管理。

AI与计算

ScrepDB MCP Server

基于 Model Context Protocol(MCP)的 StarCraft 回放数据查询服务端,实现了可通过 MCP 客户端以 JSON-RPC 形式查询、获取数据库模式和 StarCraft 知识的后端,支持 SQLite/PostgreSQL 存储和 stdio 传输模式。

AI与计算

OpenSaas Stack MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行与提示模板的注册与渲染能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明以及多传输协议接入,旨在为 LLM 客户端提供安全、可扩展的上下文服务。

网页与API

CLIAIMONITOR MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,承担资源、工具、 Prompt 模板等的托管与管理,并通过 JSON-RPC 与 LLM 客户端进行通信,提供会话管理、能力声明、以及多传输协议支持(HTTP、SSE、WebSocket)的上下文服务框架,供前端仪表盘、Captain 编排与代理执行组件协同工作。

网页与API

Commons Systems MCP 服务器(GitHub Workflows MCP Server)

基于 Model Context Protocol 的后端服务,通过 JSON-RPC 方式向 LLM 客户端提供监控、部署与故障分析相关的工具接口,支持通过标准化请求-响应模式执行工具、查询部署信息等,服务器端实现了工具注册、请求处理与错误封装,通信以 STDIO 为载体。

AI与计算

Code Puppy MCP Server

基于模型上下文协议(MCP)的后端服务器,实现资源托管、工具注册/执行以及提示模板渲染,并通过 JSON-RPC 与客户端通信,提供会话管理、能力声明以及对多传输协议的支持,旨在为LLM客户端提供标准化的上下文和外部功能访问服务。

AI与计算

Von MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,用标准化的 JSON-RPC 形式向 LLM 客户端暴露资源、注册和执行 Tools,以及 Prompt 模板的渲染与管理,核心包含会话管理、能力声明与对多传输协议的支持,旨在为 LLM 应用提供可扩展、可验证的上下文服务。

AI与计算

AimDB MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现对 Resources、Tools 与 Prompts 的托管、注册与渲染,并通过 JSON-RPC 2.0 与 LLM 客户端进行通信,支持资源读取/订阅、工具调用、提示获取,以及远程订阅通知等功能。该实现包含完整的服务器端约束、路由、订阅管理与通知输出,具备可运行的 MCP 服务端能力。

网页与API

XPR MCP Server

基于 Model Context Protocol 的 MCP 服务器,实现对 XPR(Proton 区块链)的工具查询、数据访问与外部部署能力,通过 JSON-RPC 与 MCP 客户端通信,并提供 Azure Functions 部署支持。

AI与计算

Agents Council MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板的管理与执行,并通过 JSON-RPC 与客户端进行通信,支持本地化持久化与多代理会话协作。该仓库包含完整的服务端实现代码,而非仅为示例。

AI与计算

Gobby MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器框架,提供资源与工具管理、提示模板,以及通过 JSON-RPC/HTTP/WebSocket 等协议与客户端交互的上下文服务能力。

通信与社交

AdvancedDiscordMCP 服务器

基于 Model Context Protocol (MCP) 的 Discord 集成后端,提供标准化的资源、工具、提示模板管理,并通过 JSON-RPC 与客户端进行通信,实现对 Discord 服务的自动化上下文支持。

AI与计算

IronBase MCP 服务器

基于 Model Context Protocol 构建的后端服务实现,作为 MCP(Model Context Protocol)服务器向大型语言模型客户端提供结构化的资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染能力;通过 JSON-RPC 进行通信,并支持 HTTP/STDIO 等传输模式与会话管理、能力声明与访问控制等安全特性。

网页与API

WordPressMCP Server

一个基于 Node.js 的最小 MCP 服务器实现,公开 WordPress REST API 工具给 MCP 客户端,并通过标准输入输出(stdio)与客户端通信,支持 WordPress 的文章、页面、分类、标签、用户、插件及自定义 CPT 的路由等功能。

AI与计算

Yanger 模型上下文服务端

基于模型上下文协议的后端实现,提供资源管理、外部工具注册与执行以及对外暴露的工具集合,支持通过标准化的 JSON-RPC 方式与客户端进行对话式上下文交互。

AI与计算

OpenMarkets MCP 服务器

基于 Model Context Protocol 的后端服务器,向大型语言模型客户端提供资源、工具和提示模板等上下文与功能,并通过 JSON-RPC 进行通信与协作。

开发者工具

EDAMAME Posture MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与提示模板等上下文功能的注册、执行与渲染,并通过 JSON-RPC 与外部 AI 客户端进行通信,支持本地与网络模式以及对管线的自动化控制。

AI与计算

MCP 服务器实现学习与示例

基于 Model Context Protocol (MCP) 的服务器端实现示例,展示如何通过 JSON-RPC 提供资源管理、工具执行与 Prompt 模板渲染等核心能力,并支持通过标准输入输出 (stdio) 的传输模式与客户端进行通信,适合作为学习和实验用途的 MCP 服务器实现。

AI与计算

Hydrolyze MCP Server

基于 Model Context Protocol 的后端 MCP 服务器实现,作为后端上下文服务提供商,向 LLM 客户端以标准化的 JSON-RPC 调用提供资源、工具与提示模板等能力,并通过 MCP 协议进行请求处理与响应返回。该仓库内实现了服务器端工具注册、请求分发以及对 Supabase 等后端的数据访问逻辑,可用于对接外部大模型应用场景。

AI与计算

EllyMUD MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,集成在 EllyMUD 游戏后端,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,便于与大型语言模型或外部 AI 客户端通过 JSON-RPC 进行上下文与功能交互。

AI与计算

DAT MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供面向大语言模型客户端的上下文服务能力,包含工具(Tools)、资源(Resources)和提示模板(Prompts)的注册、管理与执行,支持通过 Spring Boot 部署并对接支持 MCP 的 Agent 客户端。

开发者工具

Apply Task MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持 TUI/GUI 与 AI 助手的集成使用。

网页与API

esa 的 MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染,采用 STDIO 传输用于与 MCP 客户端进行 JSON-RPC 风格的通信,支持多模态上下文的读取、操作和交互。

AI与计算

TPM-MCP 本地服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,提供资源、工具和提示渲染等能力,供本地 LLM 客户端通过 JSON-RPC 方式访问并管理项目数据(包含会话、能力声明、以及多传输协议支持)。

AI与计算

Singular Blockly Model Context Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供可管理的资源、可注册的工具和可渲染的 Prompt 模板,通过 JSON-RPC 进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明等功能。

AI与计算

ai-infra MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式提供资源管理、工具注册/执行以及 Prompt 模板渲染等上下文服务,支持会话管理、能力声明与多传输协议(如 stdio、SSE、WebSocket),旨在为 LLM 应用提供可扩展、安全的上下文服务能力。

AI与计算

DevTeam6 MCP 服务器集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供 Resources 的托管与管理、Tools 的注册与执行,以及可扩展的提示模板/交互能力,并通过标准化的 JSON-RPC 风格接口与 LLM 客户端进行通信,支持会话管理与多种传输场景。当前实现包括 MemoryMCPServer 与 RAGMCPServer 等服务器骨架,可作为 MCP 客户端对接的后端服务端。

AI与计算

Dec MCP Server 实现

一个基于 MCP 的后端服务器实现,提供 JSON-RPC 2.0 的初始化、工具列表与工具执行等核心接口,并通过标准输入输出与客户端通信,支持在本地运行、生成并管理 MCP 配置与规则输出。

AI与计算

Crackerjack MCP 服务器

基于 Crackerjack 的 MCP(Model Context Protocol)服务器实现,提供资源托管与管理、工具注册与执行、以及可渲染的 Prompt 模板等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 WebSocket、StdIO、SSE),为 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

AI-Infra-Guard MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 与 LLM 客户端进行通信,支持多种传输通道(如 SSE、StdIO、WebSocket),为大语言模型应用提供标准化的上下文与能力服务。

AI与计算

Polar MCP 服务器桥接

基于模型上下文协议(MCP)的服务器实现组件,作为 Polar 电子应用的一部分,提供工具定义查询、工具执行与健康检查等核心接口,通过 HTTP 端点与客户端通信,并通过 Electron 渲染进程 IPC 与后台工具 definition/执行能力对接,从而向 LLM 客户端暴露资源、工具与提示渲染能力。

AI与计算

MCP-CLI-Go 本地 MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的管理与执行,支持通过 JSON-RPC 与 MCP 客户端通信,并具备标准化的服务器端会话管理和多传输模式能力(如 StdIO)。

AI与计算

Context Finder MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等能力,并通过 MCP JSON-RPC 与客户端通信。该仓库实现了完整的 MCP 服务端逻辑、工具集合和向量存储等组件,支持通过多种传输方式(如 stdio、HTTP、gRPC 等)向 LLM 客户端提供结构化的上下文服务和功能。

网页与API

GitHub MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供对 GitHub 的上下文资源、工具执行与提示模板的标准化访问,支持 JSON-RPC 交互,适配多种传输方式并具备会话管理、能力声明与远程工具发现等能力,用于为大语言模型提供可扩展的上下文服务。

网页与API

PraisonAI MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket)以为 LLM 客户端提供可扩展的上下文服务框架。

开发者工具

AutoHotkey v2 MCP 服务器

基于 Model Context Protocol 的 AutoHotkey v2 MCP 服务器,提供资源、工具、提示词(Prompts)的管理与上下文注入,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE),实现会话管理和能力声明以服务化地提供上下文服务。

开发者工具

Aspose MCP Server

基于模型上下文协议(MCP)的后端服务器实现,向大型语言模型(LLM)客户端提供统一的资源/工具/提示模板等上下文服务,通过 JSON-RPC 进行通信,并支持多传输协议与会话管理,内置 Word/Excel/PPT/PDF 等办公文档处理能力的托管实现。

AI与计算

Tactus MCP 服务端实现

基于模型上下文协议(MCP)的服务器端实现,面向后端提供统一的资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力申明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)实现安全、可扩展的上下文服务,方便 LLM 客户端调取资源、执行工具与获取定制的 Prompt。该仓库明确包含 MCP 相关的服务端实现与集成能力。

AI与计算

Shannot MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供资源、工具与提示等上下文能力,并通过 JSON-RPC 在标准输入输出传输通道进行通信,支持本地及远程执行场景的脚本运行、会话管理与审计日志记录。

AI与计算

Savant Model Context Protocol 服务器

基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。

桌面与硬件

ESP-MCP over MQTT – ESP32 的 MCP 服务器实现

基于 MCP(Model Context Protocol)在 ESP32/ESP-IDF 上实现的 MQTT 传输 MCP 服务器,提供资源管理、工具注册与调用、以及 Prompt/模板支持,利用 JSON-RPC 与客户端通信,适用于边缘设备上的上下文与能力服务。

AI与计算

Cognia MCP 服务端实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。

AI与计算

ABCoder MCP 服务端

基于 Model Context Protocol(MCP)的服务器实现,作为后端上下文服务提供者,负责托管并管理 资源(如 UniAST/AST 数据、仓库结构等)、注册与执行工具,以及定义和渲染 Prompt 模板,供大语言模型(LLM)客户端通过 JSON-RPC 进行资源访问、工具调用与提示渲染等交互。实现了 MCP 服务端核心能力,支持 STDIO/HTTP 等传输模式的通信。

AI与计算

Flask-MCP-Plus

基于 Flask 的 MCP 服务器实现,提供工具、资源、提示等接口,支持 JSON-RPC 风格的请求/响应以及流式传输,便于向大模型客户端提供上下文信息和外部功能接入。

AI与计算

MCP Over MQTT 服务器实现(paho-mcp-over-mqtt)

基于 MQTT 5.0 的 MCP 服务器实现,使用 paho-mqtt-c 库,提供资源管理、工具注册与调用、以及基于 JSON-RPC 的 MCP 请求/响应处理,支持服务器上线、会话管理和多客户端交互。

AI与计算

365DaysOfData MCP 服务器(From Scratch)

基于模型上下文协议(MCP)的后端实现示例,包含可运行的 MCP 服务器代码、工具/资源注册以及简单的 Prompt 管理能力,能够通过标准化的 JSON-RPC 方式与客户端交互。

AI与计算

图表生成MCP服务器

基于 Model Context Protocol (MCP) 的后端服务,提供15种图表生成功能、AI智能配色与输出能力,并通过 MCP 协议供 LLM 客户端读取资源、调用工具和获取图表输出。

AI与计算

Agent Trust Protocol MCP 服务器 - 量子安全版

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册/执行、提示模板等核心能力,支持 JSON-RPC 通过 WebSocket/HTTP 与客户端通信,内置量子安全加密(Ed25519 与 Dilithium 的混合模式)、W3C DID 身份、审计日志和会话管理,满足企业级的可扩展上下文服务需求。

AI与计算

Digest MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,为 AI 客户端(如大型语言模型)提供标准化的上下文服务:托管资源、注册并执行工具、定义与渲染提示模板,支持通过 JSON-RPC 进行通信。

AI与计算

GPT4Free MCP 服务器

基于 Model Context Protocol (MCP) 的多模型上下文服务后端,向 LLM 客户端提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持会话管理并兼容多种传输协议(STDIO/SSE/WebSocket),为 AI 应用提供可扩展、安全的上下文服务框架。

网页与API

MCP 服务端多传输实现与工具协作

基于 Model Context Protocol 的 MCP 风格服务器实现,提供对资源、工具和提示模板的标准化管理,内置 STDIO 与 SSE/HTTP 传输方式的服务器端实现,并可与 Agent2Agent 等组件协同工作,支持异步请求处理、流式响应和任务驱动的上下文服务。

AI与计算

AdCP Sales Agent MCP Server

基于模型上下文协议(Model Context Protocol, MCP)的后端服务器,向大型语言模型(LLM)客户端以标准化方式提供资源数据、工具执行能力和可渲染的提示模板,支持多租户、会话管理以及通过 JSON-RPC 与客户端通信的上下文服务框架,适用于广告投放场景的自动化协作与执行。

AI与计算

Context8 MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大型语言模型(LLM)客户端暴露私有代码资源、可执行工具和可渲染的 Prompt 模板等上下文服务,并通过 JSON-RPC 方式进行通信,支持 STDIO 和 HTTP 两种传输通道。

AI与计算

WeKnora MCP 服务端

基于 WeKnora 的 MCP(Model Context Protocol)服务器实现,向大模型客户端提供标准化的资源、工具与提示模板的上下文服务,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,用于实现安全、可扩展的上下文环境。该服务器通过 JSON-RPC 与客户端进行通信,承载资源访问、工具注册/执行与提示渲染等核心能力。典型场景包括对接外部知识库、执行工具调用、以及渲染与提供定制化的 Prompt 模板。

AI与计算

Midnight MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、Prompts 的注册、管理与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,面向 LLM 的上下文服务与功能扩展。

AI与计算

poly-queue-mcp

基于 Model Context Protocol 的后端服务器,统一暴露多种消息队列适配器作为工具,向 LLM 客户端提供资源、工具执行与 Prompts 渲染的上下文服务。

AI与计算

poly-secret-mcp

基于 Model Context Protocol(MCP)的后端服务器,聚合 Vault、SOPS 等密钥/机密管理工具的工具接口,向大语言模型(LLM)客户端提供以 JSON-RPC 形式调用的密钥读取、写入等操作的统一入口,并支持通过标准化传输(如 STDIO)进行交互。

网页与API

poly-container-mcp

基于 Model Context Protocol 的多运行时容器管理 MCP 服务器,提供对 nerdctl/podman/docker 的统一 MCP 接口,支持 STDIO 与 Streamable HTTP 传输,供大模型客户端以标准化方式获取资源、调用工具与渲染提示等上下文信息。

开发者工具

Polyglot SSG MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器,聚合多语言静态站点生成器(SSG)的工具集,并通过 MCP JSON-RPC 暴露给大模型客户端使用,支持 STDIO 与流式HTTP传输模式。

网页与API

VectCutAPI MCP 服务端

基于 Model Context Protocol (MCP) 的 CapCut 风格后端服务器,通过 JSON-RPC 与 MCP 客户端通信,提供资源、工具、草稿管理等核心能力,支持把视频/音频/图片等素材以标准化方式暴露给大语言模型等客户端使用。

开发者工具

Claude Code Workflow MCP 服务器

基于 Claude Code Workflow 的 MCP 服务器实现,使用 JSON-RPC 与客户端通信,核心职责是托管资源、注册工具、定义并渲染 Prompt 模板,为 LLM 客户端提供可扩展的上下文服务。

开发者工具

MCP Guard 安全网关

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染等核心能力,并通过 JSON-RPC 与客户端通信;内置认证、授权、速率限制、观测与审计等安全特性,支持多传输协议(Stdio、HTTP、SSE)以及多服务器路由场景,能为 LLM 客户端提供安全、可扩展的上下文服务框架。

商业系统

Fantaco MCP 服务器实现(客户与财务)

基于模型上下文协议(MCP)的后端服务器实现,提供面向客户与财务的工具服务,通过 FastMCP HTTP 传输向 LLM 客户端暴露可调用的工具,支持资源访问与任务执行,便于在对话式应用中以标准化方式获取上下文信息和外部功能。

AI与计算

Concierge MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册/执行、Prompt 模板渲染,并通过 MCP/JSON-RPC 进行客户端交互,支持会话管理与跨协议传输,面向 LLM 客户端提供可扩展的上下文服务框架。

AI与计算

Fastly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并可在 stdio、HTTP(含 SSE)等传输模式下运行,具备会话管理、能力声明和安全保护机制。

AI与计算

Autobyteus MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染,支持通过 JSON-RPC 与客户端通信,并具备会话管理与多传输协议(如 Stdio、SSE、WebSocket)扩展能力,为大语言模型(LLM)应用提供安全、可扩展的上下文服务框架。

AI与计算

Opencode MCP 语义上下文服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供持久化记忆、工具执行和 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持内存资源管理、工具注册/执行、Prompt 渲染,以及会话管理,具备本地向量检索、离线嵌入和多种传输能力的服务端实现。

AI与计算

Claude Sessions MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现 Claude Code 会话的资源管理、工具执行与提示渲染,提供统一的上下文服务给 LLM 客户端,采用 JSON-RPC 进行交互,支持多传输方式并完成会话、资源、工具等能力的托管与管理。

AI与计算

Sunpeak MCP 服务器端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。

AI与计算

Chrome DevTools MCP 服务端实现

基于 Model Context Protocol (MCP) 的服务端实现,用于向基于 MCP 的中文/英文客户端提供标准化的上下文信息与功能。核心职责包括托管与管理 Tools、Resources、Prompts,支持通过 JSON-RPC 与客户端通信,提供会话管理、能力声明以及多传输协议的支持,适合在浏览器环境或本地服务中搭建对 LLM 的上下文服务框架。

AI与计算

Synapse MCP 服务器

基于 Model Context Protocol 的后端服务器,提供任务资源、工具调用和提示模板等上下文服务,通过 JSON-RPC 2.0 与 AI 客户端(如 Claude Code)进行交互,实现多代理协作的上下文管理与执行能力。

AI与计算

ElizaOS Knowledge MCP 服务器

基于 Model Context Protocol 的后端服务,提供资源、工具与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端进行交互,当前实现以 STDIO 传输为主要通讯方式,能够托管本地知识库中的日常简报、事实、理事会简报等资源,并暴露查询与渲染工具以支持多样化的 LLM 交互场景。

开发者工具

HealthSim MCP Server

基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。

AI与计算

Krolik MCP 服务器(Claude Code 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管与管理、工具注册/执行,以及提示模板的定义与渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议的上下文服务框架。

AI与计算

mcp-server-starter

一个基于 Model Context Protocol 的最小可运行服务器实现,使用 stdio 传输,与客户端通过 JSON-RPC 进行交互,公开一个简单的 hello 工具,便于开发者快速上手 MCP 服务端开发。

AI与计算

模板化 MCP 服务器集合

一个面向大型语言模型的 MCP 服务器模板仓库,提供多达17种独立的 MCP 服务器及底层核心组件,支持资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端进行通信,适合本地自托管和容器化部署。

AI与计算

VidCap YouTube API MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。

桌面与硬件

Secret MCP

基于 Model Context Protocol (MCP) 的本地秘密管理与上下文服务服务器,提供秘密资源的托管、工具注册与执行,以及可渲染的 Prompt 模板,供本地的 AI 编码助手安全地获取上下文与功能。所有敏感密钥仅存于本地,AI 客户端通过 JSON-RPC 与服务器交互读取资源、调用工具并渲染 Prompts。

AI与计算

cl-mcp — Common Lisp MCP 服务器实现

基于 Common Lisp 的 MCP(Model Context Protocol)服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,并通过 JSON-RPC 进行请求/响应。支持多种传输协议(stdio、TCP、HTTP),为大语言模型(LLM)客户端提供可扩展、可安全的上下文服务框架。

开发者工具

Sugar MCP Server

基于 Sugar 的 MCP 服务器实现;通过 JSON-RPC 以标准化方式在 STDIN/STDOUT 上与 MCP 客户端通信,提供任务/工具相关的后端能力,并通过 Sugar CLI 实现实际功能调用,作为 Claude Code 与 Sugar 生态的后端上下文与功能提供端。

AI与计算

MAXential Thinking MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供可运行的思维链管理与分支导航能力,通过 JSON-RPC 与客户端进行交互,并通过 STDIO 传输实现与外部模型或工具的对接。

桌面与硬件

YakShaver MCP Server (Desktop Electron 后端)

基于模型上下文协议(MCP)的后端实现,作为 YakShaver 桌面应用的服务端,负责托管与管理内部 MCP 服务器、注册与执行工具,以及定义与渲染提示模板,通过 JSON-RPC 进行与 LLM 客户端的标准化通信,提供安全、可扩展的上下文服务框架。

AI与计算

Claude Agent MCP Server for Elixir

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的注册、路由与 JSON-RPC 响应,作为 Elixir 应用的后端服务,与 Claude Code CLI 控制协议配合使用(支持 in-process 服务器模式)。

商业系统

IBKR MCP Server (Rust Edition)

基于 MCP 协议的高性能后端服务器实现,提供与 IBKR TWS/Gateway 交互的工具、市场数据、账户信息等能力,通过 JSON-RPC 形式对接 MCP 客户端,并以 Axum 构建的 HTTP/WebSocket 服务提供可扩展的上下文能力。

AI与计算

py-code-mode

基于 MCP 的后端服务,为大语言模型客户端提供标准化的上下文信息与功能支持,托管资源、注册工具、定义与渲染提示模板,并通过 JSON-RPC 与客户端交互,支持多种传输协议与会话管理。该仓库实现了 MCP 相关组件与服务器端能力,旨在在本地或分布式环境下提供可扩展的上下文服务。

AI与计算

Whimbox-MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器端实现,作为 Whimbox 的后端服务,通过 JSON-RPC 提供资源/工具(Tasks/宏相关接口)等能力给大语言模型客户端调用,支持健康检查、嵌入式工具渲染与多传输协议(如 streamable-http)。

开发者工具

MSW MCP Server

基于 Model Context Protocol 的后端服务器,为 AI 客户端提供对 Mock Service Worker (MSW) 的统一上下文服务。服务器负责托管资源、注册可执行工具、定义并渲染提示模板,并通过 JSON-RPC/WebSocket 等传输与浏览器中的 MSW 服务工作者进行动态交互和控制。

桌面与硬件

Cheat Engine MCP Bridge

基于 MCP 的后端服务器实现,提供通过 Cheat Engine 与 LLM 客户端之间的 JSON-RPC 通信,支持内存读取、工具调用以及提示模板渲染等上下文服务的本地化 MCP 服务器。

AI与计算

clai MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器框架,提供对 MCP 请求/响应的处理能力、资源与工具注册管理,以及通过 JSON-RPC 与客户端进行通信的多进程服务器支持与会话管理。

AI与计算

MCP-MCP Minecraft Model Context Protocol 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染能力。通过 JSON-RPC 形式与客户端通信,支持将 LLM 的推理与外部设备(如 Minecraft 实例)进行无缝协作,具备会话管理、能力声明与多传输协议扩展能力(如 Stdio、SSE、WebSocket)的后端上下文服务框架。

AI与计算

LiveKit Agents MCP Server

基于 LiveKit Agents 框架的 MCP(Model Context Protocol)服务器实现与示例,提供资源、工具与提示模板的托管与暴露,支持 JSON-RPC 风格的通信以及多传输协议(如 SSE/WebSocket/StdIO)以供 LLM 客户端访问上下文信息和外部功能。

AI与计算

Miyabi MCP 服务器集合

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供资源管理、工具注册/执行、Prompt 模板定义与渲染等能力,作为后端上下文服务框架供 LLM 客户端通过 JSON-RPC 进行资源访问、外部功能调用与交互模板渲染。仓库中包含多个可运行的 MCP 服务器示例,支持通过标准化接口对接 Claude/LLM 客户端。

AI与计算

Lunar MCP Server Kit

基于 Model Context Protocol(MCP)的后端服务器实现示例,提供资源/工具管理、工具执行以及面向 LLM 的上下文渲染能力,展示了如何用 MCPX 服务器核心实现 JSON-RPC 风格的请求/响应,并支持多种传输方式(如标准输入输出、SSE、HTTP 流等)。

AI与计算

MCP Framework - Rust MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器端实现,提供工具、资源、提示的注册与执行,并通过 JSON-RPC 与客户端进行通信,支持多传输方式(HTTP、stdio、Inspector 调试)以为大语言模型提供可扩展的上下文与功能服务。

网页与API

MCP Outlet – 通用 MCP 服务器运行时与沙箱代理

基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*

AI与计算

BrowserWing MCP 服务器

基于模型上下文协议(MCP)的后端服务器,提供 MCP 指令注册与执行、资源与工具的管理,以及提示模板的渲染,供大模型客户端通过 JSON-RPC 调用,并可通过多传输协议进行通信。

AI与计算

M3M MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端以标准化方式提供 M3M 的运行时文档、工具和资源信息。服务器通过 JSON-RPC 进行通信,支持标准输入输出(stdio)和 HTTP/SSE 两种传输方式,并且具备插件扩展能力以加载外部模块的接口描述。

AI与计算

Sekiban MCP文档服务器

基于Model Context Protocol(MCP)的后端服务器,提供 Sekiban 文档与示例的查询、检索、分段渲染以及与LLM的交互工具,支持通过SSE/HTTP等传输方式与客户端通信,并可通过JSON-RPC风格请求获取资源、工具和提示模板等能力。

AI与计算

Joern MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,结合 Joern 代码分析平台,为 LLM 客户端提供统一的资源管理、工具注册、提示模板渲染等上下文服务,并通过 JSON-RPC 支持多种传输协议(如 stdio、SSE、WebSocket)来读取资源、执行工具和渲染 Prompt。该服务器实现了 MCP 的核心功能,包含会话管理、能力声明以及对外暴露的丰富工具和资源接口。

AI与计算

mcpd

基于 Model Context Protocol 的 MCP 服务器端后端,提供资源与工具的托管、会话管理、以及与 MCP 客户端的 JSON-RPC 通信,辅以网关、调度、工具聚合等模块实现对 MCP 服务的弹性编排与扩展。

AI与计算

Quint Code MCP Server

基于模型上下文协议(MCP)的后端服务,实现了通过标准 JSON-RPC 对外提供资源管理、工具注册与执行、以及上下文相关提示/工作流的能力。该实现以 stdio 为传输介质,供 LLM 客户端(如 Claude Code、Cursor、Gemini CLI、Codex CLI 等)调用并集成到软件工程场景的推理与协作中,内部使用 SQLite DB 存储知识组件与工作流状态,支持多阶段的 FP F(First Principles Framework)推理循环。

AI与计算

Carbon MCP Server

基于 Model Context Protocol (MCP) 的服务端实现,作为后端上下文与功能提供者,向 LLM 客户端暴露资源访问、工具注册/执行以及可渲染的对话模板能力。通过 JSON-RPC/HTTP 交互方式,整合资源管理、工具执行与上下文管理,支持会话与多种传输模式的后端服务框架。

AI与计算

Dingo MCP Server

基于模型上下文协议(MCP)的后端服务器,向LLM客户端标准化提供资源管理、工具注册/执行以及可自定义的提示模板渲染,通过 JSON-RPC 进行通信与协作。

AI与计算

JWT-HACK MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,提供对 JWT 的解码、编码、验证、破解与攻击载荷生成等工具,通过 MCP 客户端以 JSON-RPC 形式进行查询与调用,支持标准化的资源管理与工具执行接口(通过 stdio 传输)。

AI与计算

Chronicle MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的注册与渲染,通过 JSON-RPC 与 AI 客户端进行交互,支持以标准输入输出(StdIO)传输的通信方式,为 LLM 应用提供可扩展的上下文服务框架。

商业系统

Pagen CRM MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,用于在 Claude Desktop 等 LLM 客户端中提供统一的 CRM 上下文服务。服务器端职责包括托管资源、注册并执行工具、定义与渲染提示模板,以及通过 JSON-RPC 与客户端进行通讯,当前实现通过标准输入输出(STDIO)传输并可扩展为其他传输协议。

AI与计算

A-MEM MCP Server

基于 Model Context Protocol(MCP)的服务器实现,提供资源(Notes/边/图)管理、工具注册与执行、以及 Prompt 模板渲染等能力,供大语言模型(LLM)客户端通过 JSON-RPC 调用获取上下文信息、执行外部功能与搭建对话场景。

AI与计算

tempo-mcp

基于模型上下文协议(MCP)的服务器端实现,向大型语言模型客户端提供 Tempo 区块链的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持多传输协议与严格的会话与安全机制。

AI与计算

TIA MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管与管理、Prompt/模板的渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输通道如 STDIO、WebSocket 等,帮助 LLM 客户端以标准化方式获取上下文、数据访问和外部功能调用。

AI与计算

YouTube Content Agency MCP 后端集合

基于模型上下文协议(MCP)的后端服务器集合,提供对资源、工具和提示模板的托管与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多种传输方式,适用于为大语言模型(LLM)客户端提供上下文与功能服务的后端架构。仓库内包含 Python 与 TypeScript 实现的多个 MCP 服务器实例及客户端示例,覆盖新闻、YouTube 工具箱、Notion 驱动的框架资源等场景。

网页与API

OpenAlex MCP Server

基于 FastMCP 的 MCP 服务器实现,通过 JSON-RPC 提供对 OpenAlex 的资源访问、工具执行与 Prompt 相关功能,供大语言模型客户端进行上下文查询、数据获取与分析。

AI与计算

News Desk MCP 服务器(Python 实现)

基于 MCP 协议的后端服务器实现,向大语言模型客户端以统一的 JSON-RPC 方式暴露新闻检索与全文获取等工具,方便在对话中调用外部功能、获取上下文信息与执行相关任务。

AI与计算

TEQUMSA_NEXUS — 基于 Model Context Protocol 的多服务器 MCP 实现集合

TEQUMSA_NEXUS 仓库提供以 Model Context Protocol(MCP)为核心的后端服务器实现,涵盖资源、工具、提示模板等资源的托管与管理,以及通过 JSON-RPC 风格接口进行跨节点协同与数据访问,为大语言模型(LLM)客户端提供可扩展的上下文服务框架。

AI与计算

OCTAVE MCP Server

基于 Model Context Protocol(MCP)的后端实现,提供对 OCTAVE 文档协议的标准化上下文服务。通过注册的工具集向 LLM 客户端暴露资源访问、外部功能调用能力,并提供对话上下文的可控渲染能力;使用 JSON-RPC 风格的通信,当前通过标准输入输出(stdio)进行交互,具备会话管理和能力声明等核心能力。

AI与计算

Defeat Beta MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的托管与管理,支持 JSON-RPC 客户端交互,并具备会话管理与多传输协议扩展能力,适用于向 LLM 客户端提供可访问的数据、外部功能与定制化提示。

AI与计算

Stock Master MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供资源、工具与模板等上下文服务,基于 JSON-RPC 通信,支持会话管理、能力声明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)与客户端对接,面向股票分析与量化交易场景的统一上下文服务框架。

AI与计算

AgentPool MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板的渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明及多传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AI与计算

Nocturne Memory MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供长期记忆知识库、关系图谱与记忆章节的读写与管理能力,并通过 MCP 与 AI 客户端进行 JSON-RPC 风格的交互与协作。

AI与计算

Composter MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供通过 API 访问组件库资源、暴露工具以供 AI 助手调用、并支持以 MCP JSON-RPC 形式与客户端进行交互的后端服务。

AI与计算

AutomatosX

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 AI 客户端的上下文服务中心,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输协议以便进行安全、可扩展的上下文服务。

网页与API

Fi-MCP 财务上下文管理服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现了资源(数据)托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 方式与客户端通信,具備会话管理、能力声明以及对多传输协议的支持,用于为 LLM 客户端提供可扩展的金融上下文服务。

AI与计算

Polymarket MCP 服务器

基于 Model Context Protocol 的后端服务器,向 LLM 客户端以标准化 JSON-RPC 提供资源、工具与提示模板,并实现会话管理、认证与多传输协议扩展。

AI与计算

vibing.nvim MCP 服务端

基于 MCP(Model Context Protocol)的 Neovim 后端实现,为 MCP 客户端提供工具暴露与执行、以及与 Neovim 的远程过程调用(RPC)桥接。通过 JSON-RPC 提供标准化的请求/响应,支持在 Studio/stdio 传输环境下与 Claude 等 LLM 客户端协同工作,便于在编辑器内进行上下文管理和外部功能调用。

网页与API

TrendRadar MCP Server (NewsTest)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供新闻数据查询、AI分析工具、存储与通知等能力,采用 FastMCP 2.0 实现 MCP 协议并支持 STDIO 与 HTTP 传输,与 MCP 客户端进行标准化上下文信息访问与功能调用。

网页与API

RSSMonster MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,作为 RSSMonster 应用的 MCP 服务端,向大型语言模型(LLM)客户端提供资源访问、工具执行和提示模板渲染能力。服务器通过 JSON-RPC 与客户端通信,提供对 RSS/文章、分类、订阅等资源的托管与管理,注册并执行工具以调用外部功能,以及渲染与自定义提示模板,且具备会话管理和能力声明,支持通过 HTTP(以及未来扩展的传输协议)进行多路传输。核心实现包含完整的服务端路由、数据库模型、MCP 工具集以及与 AI 相关的分析能力。

AI与计算

EdgarTools MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文资源、可注册的工具以及可渲染的 Prompt 模板。通过 JSON-RPC 与客户端通信,支持会话管理、能力宣告,以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,适配 Claude 等 AI 助手的上下文服务需求。

AI与计算

BL1NK Skill MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,用于托管与执行 BL1NK Skills,并集成 AWS Bedrock Nova Lite 进行技能生成与推理,支持资源、工具、提示模板的标准化管理与 JSON-RPC 通信。

AI与计算

Cortex Memory MCP Server

基于模型上下文协议(MCP)的服务器实现,提供内存管理、工具注册/执行和提示模板的后端服务,通过 JSON-RPC 与 LLM 客户端进行通信,支持与各种后端组件协同工作,便于在代理代理的对话系统中提供上下文性与功能性支持。

AI与计算

Stim Model Context Protocol (MCP) 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源与工具的托管、Prompt 模板的渲染,以及通过 JSON-RPC 与 LLM 客户端进行通信的能力,支持标准化的会话管理与多传输通道(如 stdio)。

AI与计算

Pixeltable MCP 示例服务器

一个基于 Model Context Protocol (MCP) 的轻量级示例服务器,展示了如何注册和调用自定义工具,用于与LLM客户端交互。

AI与计算

AI-Parrot MCP 服务器

一个基于 Model Context Protocol (MCP) 标准,能够以 JSON-RPC 协议对外提供 AI-Parrot 工具服务的应用后端。

开发者工具

Storybook MCP 服务

该项目为 Storybook 提供 MCP (Model Context Protocol) 服务器,帮助 AI 代理高效理解 UI 组件信息并辅助开发流程。

AI与计算

Vibe Llama MCP 上下文服务器

提供基于 Model Context Protocol (MCP) 的本地服务器,为 LLM 客户端提供 LlamaIndex 生态系统的文档上下文和工具调用能力。

生产力应用

示例MCP笔记服务器

这是一个基于Model Context Protocol (MCP) 的服务器,用于管理简单的文本笔记作为资源,并提供总结笔记的提示模板和添加笔记的工具。

AI与计算

OSVM Unikernel 工具执行器

OSVM Unikernel 工具执行器是一个高性能、安全隔离的后端,专为 LLM 客户端通过 vsock 协议调用 MCP 工具而设计。

AI与计算

Intlayer 国际化内容管理服务器

Intlayer MCP 服务器为LLM应用提供AI驱动的多语言内容管理、翻译工具和上下文服务,通过JSON-RPC协议实现高效交互。

开发者工具

Airlift MCP 服务器框架

基于 Airlift 框架构建的 MCP 服务器实现,提供上下文信息、工具和 Prompt 管理,支持 LLM 客户端通过 JSON-RPC 协议进行交互。

AI与计算

Poet MCP 服务器

Poet 是一个集成 MCP 服务器的静态网站生成器,为 LLM 应用提供内容上下文和交互能力。

AI与计算

AgentGateway

AgentGateway是一个为Agentic AI设计的连接平面,支持Model Context Protocol (MCP) 和Agent2Agent (A2A),提供安全性、可观测性和治理能力,并能将传统API转换为MCP资源。

网页与API

MCP天气服务演示

一个基于Model Context Protocol (MCP) 的简单Python服务器,提供天气预警和天气预报查询工具,通过JSON-RPC与LLM客户端通信。

AI与计算

Enso Labs - Orchestra

Enso Labs Orchestra是一个基于MCP和A2A协议的AI代理编排后端,为LLM提供上下文、工具和会话管理。

网页与API

Node.js 天气 MCP 服务器

一个基于 Express.js 和 Node.js 实现的 MCP 服务器,提供天气预警和预报功能,可无缝部署到 Azure。

AI与计算

Cupcake订单MCP服务器

一个基于FastMCP框架构建的MCP服务器,用于管理和查询虚拟的Cupcake订单资源。

开发者工具

Spiceflow

一个轻量、类型安全的API框架,通过内置的Model Context Protocol (MCP) 插件,可轻松将现有API转换为LLM可用的工具和资源。

AI与计算

宝可梦MCP对战模拟器

一个符合Model Context Protocol (MCP) 标准的服务器,提供全面的宝可梦数据访问和逼真的对战模拟功能,支持自然语言交互。

AI与计算

Symfony AI Demo MCP 服务器

一个基于 Symfony 框架构建的 MCP 服务器示例,通过 JSON-RPC 协议向 LLM 客户端提供工具服务。

数据库与文件

SQL Server MCP 服务器

将 SQL Server 数据库能力通过 MCP 协议暴露给 LLM 客户端

AI与计算

MCP Node.js 示例服务器

基于Node.js实现的MCP服务器示例,支持JSON-RPC、工具调用、资源访问和SSE传输。

开发者工具

Croft Laravel MCP Server

专为本地 Laravel 开发构建的 MCP 服务器,为 AI 客户端提供丰富的项目上下文和操作工具。

开发者工具

ISE MCP 服务器

一个基于MCP协议的服务器,通过JSON-RPC将思科ISE(Identity Services Engine)数据动态封装为可调用的工具。

AI与计算

Coputo MCP 服务器框架

基于 TypeScript 的远程 MCP 服务器框架,快速构建并托管 AI 工具和服务。

开发者工具

Rush Stack MCP 服务器

提供基于 Rush Stack 工具链的上下文信息和功能的 MCP 服务器实现。

AI与计算

Sqirvy MCP 服务器 (Go语言)

使用Go语言实现的Model Context Protocol (MCP)服务器,为LLM提供资源、工具及Prompt服务。

开发者工具

go-mcp

一个Go语言实现的模型上下文协议(MCP)库,用于连接LLM应用与外部数据、工具和服务。

开发者工具

MCP服务器示例 (Toy)

一个简单的MCP服务器示例,用于测试和演示MCP协议的基本工具功能。

开发者工具

.NET MCP 工具包

轻量、快速、兼容 NativeAOT 的 .NET MCP 服务器和客户端框架。

桌面与硬件

KVM 虚拟机 MCP 管理服务器

通过 MCP 协议(基于 JSON-RPC)远程管理 KVM 虚拟机,提供生命周期、网络和存储等操作接口。

开发者工具

Chungoid MCP 服务器

基于 MCP 协议,为 LLM 客户端提供阶段式项目初始化和工作流管理上下文服务。

网页与API

基于Spring AI的MCP天气服务示例

一个基于Spring AI和MCP协议实现的后端服务,提供天气预报和警报查询工具。

开发者工具

MCP测试服务器集合

提供多种功能各异的MCP服务器示例,用于测试和验证Model Context Protocol客户端及服务器实现。

开发者工具

DevDb VS Code扩展

一个VS Code扩展,提供数据库作为AI编码的上下文信息,支持自动发现、数据浏览和修改。

AI与计算

go-a2a

go-a2a 是使用 Go 语言实现的 Agent-to-Agent (A2A) 协议库,它不仅实现了 A2A 协议,还集成了 Model Context Protocol (MCP),可以作为有效的 MCP 服务器使用,为 LLM 应用提供资源、工具和 Prompt 管理等上下文服务。

AI与计算

Swissknife A2A 服务器

Swissknife A2A 服务器是一个多代理系统后端,通过 JSON-RPC 和 SSE 协议,以 A2A 协议向客户端提供 AI 代理服务、工具扩展和上下文管理能力。

开发者工具

ACI.dev - AI 工具调用基础设施

ACI.dev 是一个开源平台,通过统一的 MCP 服务器和 Python SDK,为 AI Agent 提供安全、可扩展的工具集成和上下文服务。

数据库与文件

KWDB MCP Server

KWDB MCP Server 是一个基于 Model Context Protocol 的应用后端,旨在为 LLM 客户端提供访问 KaiwuDB 数据库的标准化上下文服务,支持资源管理、工具注册和 Prompt 模板渲染等核心 MCP 功能。

开发者工具

Viam MCP服务器SDK

Viam MCP SDK 是一个 Rust 库,用于简化 MCP 服务器组件的开发,支持工具注册、调用和标准化的 JSON-RPC 通信。

网页与API

API200 MCP 服务器

API200 MCP 服务器是一个基于 MCP 协议的应用后端,旨在将 API-200 平台集成的第三方 API 以工具形式提供给 LLM 客户端使用。

网页与API

加密货币价格追踪MCP服务器示例

一个简单的MCP服务器,通过CoinGecko API提供加密货币价格信息,展示了MCP协议工具注册和执行的基本功能。

AI与计算

A2A代理伙伴服务器

基于A2A协议实现的代理伙伴服务器,提供工具注册、任务管理和推送通知等功能,用于构建智能代理协作系统。

开发者工具

Agent Swarm Kit

轻量级 TypeScript 库,用于构建可编排的多智能体 AI 系统,支持 Model Context Protocol (MCP) 服务器集成,提供上下文服务框架。

AI与计算

Coco MCP服务器

Coco MCP服务器是 wearable 设备 coco 的后端实现,通过 Model Context Protocol (MCP) 标准协议,为 LLM 应用提供音频数据资源访问和向量检索能力。

开发者工具

Shell MCP

基于Bash的轻量级MCP服务器,用于通过JSON-RPC管理和执行命令行工具。

开发者工具

TinyMCP Server SDK

TinyMCP Server SDK 是一个轻量级的 C++ SDK,用于构建基于 Model Context Protocol (MCP) 的服务器,专注于通过 JSON-RPC 和 Stdio 提供工具执行能力。

网页与API

Tiny MCP

轻量级的MCP服务器与客户端Python实现,提供天气、时间等示例服务,助力LLM访问外部工具。

AI与计算

a2a4j MCP服务器

基于Spring MVC和SSE实现的MCP服务器,支持通过JSON-RPC协议与LLM客户端进行上下文信息和功能交互。

网页与API

MCP Fetch Server

一个基于MCP协议的Fetch服务器,可以将URL内容抓取并转换为Markdown格式,优化AI模型的内容输入。

AI与计算

TypeSpec MCP Server

基于TypeSpec生成的MCP服务器,通过Stdio提供向量数学工具服务。

数据库与文件

Sequel MCP Server

为 Claude, Cursor, WindSurf 等 MCP 客户端提供数据库查询和 schema 上下文的 MCP 服务器。

AI与计算

Emmett MCP

Emmett MCP 是一个用于构建 Model Context Protocol (MCP) 服务器的 Emmett 框架扩展,支持 SSE 传输协议,为 LLM 客户端提供上下文信息和工具能力。

开发者工具

Minimal MCP Server on IC Canister

基于 Internet Computer 的最小化 MCP 服务器实现,目前仅支持工具 (Tools) 功能和 Streamable HTTP。

开发者工具

MCPyATS服务器

基于pyATS的实验性MCP服务器,为LLM应用提供网络自动化和多服务工具集成能力。

生产力应用

MCP任务管理器服务器

基于MCP协议的任务管理服务器,使用SQLite存储,提供项目和任务的创建、查询、更新等工具接口。

AI与计算

ChatData MCP 服务器

提供工具和提示的MCP服务器,扩展大型语言模型能力,支持多种工具和提示模板,简化LLM应用开发。

开发者工具

Rust MCP SDK (RMCP)

官方Rust SDK,用于构建Model Context Protocol (MCP) 服务器和客户端,提供资源管理、工具执行和Prompt模板渲染等核心功能。

AI与计算

Dust MCP Server

一个简单的 MCP 服务器示例,提供了一个名为 "dust" 的工具用于演示。

开发者工具

Micronaut MCP工具PoC服务器

基于Micronaut框架构建的MCP服务器PoC,专注于提供工具注册和调用功能,通过标准输入/输出与客户端通信。

AI与计算

Simple Python MCP服务器

一个使用Python实现的简单但功能完备的MCP服务器,支持工具注册和调用,并提供时间工具示例。

AI与计算

CrewAI文本摘要MCP服务器

一个基于CrewAI框架构建的MCP服务器,提供文本摘要工具,支持自定义摘要长度,方便集成到LLM应用中。

开发者工具

Langchain NestJS MCP示例服务器

基于Langchain和NestJS构建的MCP服务器示例,演示了如何使用MCP协议提供上下文信息和工具能力。

开发者工具

cpp-mcp 框架

cpp-mcp 框架是一个用 C++ 编写的 MCP 服务器实现,提供资源管理、工具注册和 Prompt 模板等核心功能,并通过 JSON-RPC 协议与客户端通信。

AI与计算

PuTi MCP Server

PuTi MCP Server 是一个基于 FastMCP 构建的轻量级 MCP 服务器,旨在为 LLM 应用提供工具注册和执行的后端服务。

开发者工具

pyATS网络自动化MCP服务器

一个基于Model Context Protocol (MCP) 的服务器,通过STDIO和JSON-RPC 2.0协议,将Cisco pyATS和Genie的网络自动化能力以工具形式提供给LLM客户端。

桌面与硬件

Microsoft Paint MCP 服务器

通过 JSON-RPC 接口控制 Windows 11 画图程序,实现自动化绘图和图像编辑功能。

商业系统

Medusa MCP Server

基于Model Context Protocol构建的MCP服务器,为Medusa电商平台提供数据访问和功能扩展,支持AI智能体集成。

AI与计算

OmniAI MCP服务器

OmniAI MCP服务器是一个基于Ruby实现的MCP协议服务器,旨在为LLM客户端提供资源、工具和Prompt模板管理能力,实现标准化的上下文服务。

开发者工具

Go-MCP:模型上下文协议Go语言实现

Go-MCP 是一个 Go 语言 SDK,用于构建和交互 Model Context Protocol (MCP) 应用,支持服务端和客户端实现。

开发者工具

Hello MCP Go Server

使用 Go 语言构建的 MCP 服务器示例,提供工具、Prompt 和资源管理功能,用于扩展 LLM 应用能力。

开发者工具

MCP Servers

提供Bun和Python两种语言实现的MCP服务器示例,用于演示如何构建和运行支持资源与工具管理的MCP后端服务。

AI与计算

llm-functions 函数工具服务器

一个基于Model Context Protocol (MCP) 的函数工具服务器,支持注册、执行多种编程语言编写的工具函数,并通过HTTP桥接扩展工具能力。

网页与API

MCP REST Server Transport

基于 RESTful API 的 MCP 服务器传输层实现,支持通过 HTTP 协议接收和发送 MCP 消息。

开发者工具

MCP Inspector Proxy 服务器

MCP Inspector Proxy 服务器是用于调试和测试 MCP 服务器的代理工具,提供请求转发和监控功能。

开发者工具

MonkeyMCP服务器

基于.NET 9.0实现的MCP服务器示例,提供猴子信息查询和简单的回声工具,演示MCP服务器的基本功能。

桌面与硬件

UI自动化MCP服务器

提供跨平台桌面UI自动化能力,通过MCP协议与客户端通信,支持资源访问和工具执行。

AI与计算

LLM Agent MCP服务器

一个基于Model Context Protocol (MCP) 的工具提供服务器,通过JSON-RPC协议向LLM客户端提供工具能力。

开发者工具

PHP MCP服务器 SDK

用于构建 Model Context Protocol (MCP) 服务器的 PHP SDK,提供资源、工具和 Prompt 模板管理的核心框架与传输层实现。

AI与计算

Koding.js MCP服务器

Koding.js MCP服务器是一个基于Node.js实现的Model Context Protocol (MCP) 服务器,它提供资源管理和工具执行能力,通过JSON-RPC协议与LLM客户端进行通信。

开发者工具

Neva MCP Server SDK

Neva 是一个 Rust 语言开发的 MCP 服务器 SDK,旨在帮助开发者快速构建符合 Model Context Protocol 标准的服务端应用。

AI与计算

CereBro MCP服务器

CereBro Server 是一个基于 Model Context Protocol (MCP) 的后端实现,提供工具注册和执行能力,支持通过标准化的 JSON-RPC 协议与 LLM 客户端进行通信。

开发者工具

Golang MCP Server SDK

Golang MCP Server SDK 是一个用于构建 Model Context Protocol (MCP) 服务器的 Go 语言 SDK,旨在为 LLM 客户端提供上下文信息和工具能力。

开发者工具

LLDB MCP集成

该项目实现了一个MCP服务器,将LLDB调试器与AI助手集成,通过标准接口实现自然语言调试。

网页与API

MCP Server示例项目

基于Model Context Protocol的服务端实现,提供天气查询和GitHub信息查询工具,增强LLM应用的功能。

网页与API

Ethereum RPC MPC Server

一个为LLM应用提供以太坊区块链数据访问能力的MCP服务器,支持标准JSON-RPC调用和Zircuit扩展功能。

网页与API

AgentQL MCP Server

AgentQL MCP Server是一个基于Model Context Protocol的服务器,集成了AgentQL的数据提取能力,为LLM应用提供网页数据抓取工具。

AI与计算

Hyperf MCP Server

基于 Hyperf 框架实现的模型上下文协议 (MCP) 服务器,支持通过 SSE 协议与 LLM 客户端通信,提供工具注册、调用等核心 MCP 功能。

开发者工具

MCP工具助手示例

本仓库提供了一个基于MCP协议的工具助手示例,包含MCP服务器和客户端实现,展示如何通过MCP连接LLM与外部工具。

AI与计算

Bhanus:MCP-vLLM集成系统

Bhanus是一个将MCP协议与vLLM集成的生产级系统,旨在高效地为LLM应用提供上下文服务和工具执行能力。

开发者工具

Damn Vulnerable MCP Server

一个故意存在安全漏洞的MCP服务器实现,用于AI/ML模型服务安全研究和教育。

AI与计算

mcp

用于构建 Model Context Protocol (MCP) 服务器的 Rust 库,提供标准化的 AI 模型上下文交换能力。

商业系统

LongPort OpenAPI MCP服务器

基于LongPort OpenAPI构建的MCP服务器,为LLM应用提供股票交易和行情数据上下文服务,支持资源管理、工具注册和Prompt模板渲染。

网页与API

B站视频搜索服务

基于 MCP 协议的 B站视频搜索服务,允许用户通过工具调用搜索 B站 视频内容。

数据库与文件

MemoDB MCP服务器

MemoDB MCP服务器是基于模型上下文协议(MCP)构建的后端服务,专注于为AI应用提供对话上下文和个人知识库管理能力。

网页与API

MCP天气查询服务

基于Model Context Protocol的天气查询服务,通过JSON-RPC协议提供城市、坐标天气查询及天气预报功能,可集成到Cursor等MCP客户端。

开发者工具

MCP TypeScript 简易模板

基于 MCP 协议的 TypeScript 服务器模板,提供工具注册和标准输入输出通信能力,可快速搭建 MCP 应用后端。

数据库与文件

Memobase MCP Server

Memobase MCP Server 是一个基于 Model Context Protocol 的后端实现,专注于用户和 Blob 数据管理,通过工具提供数据访问能力,为 LLM 应用提供上下文服务。

AI与计算

AI Playground MCP Server

aiPlayground MCPServer 是一个使用 Model Context Protocol (MCP) 框架构建的简单 MCP 服务器示例,演示了如何通过标准化的协议向 LLM 客户端提供上下文服务,包括资源管理和工具注册。

网页与API

MCP HTTP代理

mcp-proxy是一个轻量级HTTP代理,允许客户端通过HTTP协议访问MCP服务器,简化了部署并使其更容易在标准HTTP基础设施上运行。

开发者工具

Muppet

Muppet是一个用于构建Model Context Protocol (MCP) 服务器的开源工具包,旨在标准化LLM应用后端的开发流程。

AI与计算

Caramba MCP服务器

Caramba MCP Server是一个基于Go语言的MCP服务器实现,旨在为LLM客户端提供资源、工具和Prompt模板等上下文服务。

开发者工具

mcp4k框架

mcp4k是一个Kotlin实现的MCP框架,用于快速构建类型安全的MCP客户端和服务器,支持资源、工具、Prompt等核心功能。

生产力应用

Todo MCP Server

一个简易的待办事项管理 MCP 服务器,通过标准 MCP 协议提供待办事项的增删改查功能,方便 LLM 应用进行任务管理。

网页与API

OpenAPI-MCP:OpenAPI转MCP服务器

OpenAPI-MCP是一个MCP服务器,能够动态加载OpenAPI规范,将API接口转换为LLM可调用的工具,实现LLM与外部API的集成。

生产力应用

Memory Bank MCP Server

Memory Bank MCP Server 是一个应用后端,基于 Model Context Protocol 构建,用于管理项目文档和上下文,为 LLM 客户端提供资源访问和工具调用能力。

AI与计算

Cyberon

Cyberon 是一个基于 Flask 的 Web 应用程序,同时也是一个 Model Context Protocol (MCP) 服务器,用于探索和可视化知识本体,并为 LLM 客户端提供上下文服务。

AI与计算

Easy MCP Server

一个轻量级的Python MCP服务器实现,通过SSE为LLM客户端提供上下文和工具能力。

开发者工具

时间显示MCP服务器

一个简单的MCP服务器,提供获取当前时间的功能,演示了MCP服务器的基本工具注册和Stdio传输协议的使用。

网页与API

简易天气MCP服务器示例

一个本地运行的MCP服务器示例,提供城市天气查询工具。

开发者工具

MCP Dart SDK

基于 Dart 语言开发的 Model Context Protocol (MCP) SDK,同时提供客户端和服务端实现,用于构建 LLM 应用的上下文服务。

开发者工具

Encom

Encom 是一个 Ruby 库,用于构建 Model Context Protocol (MCP) 服务器和客户端,专注于提供工具执行框架。

数据库与文件

DB MCP Server

数据库MCP服务器,为LLM客户端提供数据库操作工具和上下文信息,简化数据库集成。

AI与计算

Agentek MCP Server

Agentek MCP Server 是一个基于 Model Context Protocol 的应用后端,旨在为 LLM 客户端提供区块链交互工具和数据访问能力。

AI与计算

Montano MCP 服务器

基于 Model Context Protocol 的服务器实现,提供工具注册和执行能力,并通过标准协议与 LLM 客户端通信。

桌面与硬件

终端命令MCP服务器

一个基于MCP协议实现的服务器,允许LLM客户端通过工具调用执行终端命令,扩展LLM的系统交互能力。

网页与API

FastAPI MCP Server

基于FastAPI框架实现的MCP服务器,旨在为AI助手提供统一的工具和数据源访问接口。

AI与计算

Prospect Research MCP Server

一个基于 Model Context Protocol (MCP) 的简单服务器实现,提供基础的 Prompt 模板和 Tool 工具,用于 LLM 应用的上下文服务。

AI与计算

MCP-rs Rust服务器实现

MCP-rs 是一个使用 Rust 语言实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具注册和 Prompt 模板等核心功能,支持多种传输协议,为 LLM 应用构建可扩展的上下文服务。

AI与计算

Agentic Security MCP Server

Agentic Security MCP 服务器是一个为 Agentic Security 漏洞扫描器提供 MCP 协议接口的服务器实现,允许 LLM 客户端安全地调用安全扫描功能。

AI与计算

MCPServers Swift实现

基于Swift和SwiftMCP构建的MCP服务器集合,旨在为LLM客户端提供资源、工具和Prompt模板管理等上下文服务。

AI与计算

Hermes MCP

Hermes MCP 是一个用 Elixir 开发的 Model Context Protocol (MCP) 服务器和客户端库,旨在为 LLM 应用提供标准化的上下文服务框架。

开发者工具

Kotlin MCP 示例服务器

基于Kotlin开发的MCP服务器示例,用于演示和学习如何构建支持LLM上下文交互的后端服务。

网页与API

简易天气查询MCP服务器

一个简单的MCP服务器示例,提供查询城市天气信息的功能,演示了如何使用MCP协议注册和调用工具。

开发者工具

java sdk

java-sdk仓库为Java开发者提供了Model Context Protocol (MCP) 的SDK,包含构建MCP客户端和服务器端应用所需的核心库和工具,简化了Java应用与AI模型和工具的标准化集成过程。

AI与计算

allnads

AllNads仓库实现了基于Model Context Protocol的MCP服务器,为AI智能体提供访问区块链数据和执行智能合约交易的工具,是AllNads平台后端架构的重要组成部分。

数据库与文件

mcp server.sqlite

一个基于SQLite数据库的MCP服务器,允许通过标准MCP协议执行SQL查询。

开发者工具

mcp kotlin sdk

mcp-kotlin-sdk仓库是基于Kotlin实现的Model Context Protocol (MCP) SDK,它不仅提供了构建MCP客户端的能力,也包含了创建MCP服务器的功能,旨在帮助开发者便捷地构建和部署MCP应用。

开发者工具

mcp rs test

基于Rust实现的MCP服务器,提供基础的JSON-RPC通信和初始化、心跳检测等核心功能,用于学习和验证MCP协议。

AI与计算

prompt decorators

Prompt Decorators 提供了一个标准化的框架,用于增强和管理大型语言模型 (LLM) 的 Prompt,包含 MCP 服务器实现,可与 Claude Desktop 等 MCP 客户端集成。

开发者工具

mcp kit

mcp-kit 是一个开源工具包,用于构建基于 Model Context Protocol (MCP) 的应用后端,提供资源管理、工具集成和Prompt模板等功能,旨在简化LLM应用后端开发。

开发者工具

mcp server

一个基于JSON-RPC 2.0协议的轻量级MCP服务器,通过插件机制提供可扩展的工具服务,并支持能力声明接口。

AI与计算

effect mcp

effect-mcp 是一个使用 Effect 库构建的 Model Context Protocol (MCP) 服务器实现,提供资源管理、工具注册和 Prompt 模板功能,并通过 Stdio 和 SSE 等传输协议与客户端通信。

AI与计算

sse

mcp_sse 是一个 Elixir 库,用于构建基于 Server-Sent Events (SSE) 的 Model Context Protocol (MCP) 服务器,为 LLM 应用提供上下文服务后端。

AI与计算

mcp daemon

Rust实现的MCP服务器,提供资源管理、工具注册和Prompt模板等核心功能,支持多种传输协议。

AI与计算

offeryn

Offeryn是一个Rust实现的Model Context Protocol (MCP) 服务器,专注于通过工具扩展大型语言模型的能力,支持JSON-RPC over Stdio和SSE传输协议。

开发者工具

ModelContextProtocol.NET

ModelContextProtocol.NET 是一个C# SDK,用于构建基于 Model Context Protocol (MCP) 的服务器,提供工具集成、资源管理和 Prompt 系统等功能,并支持标准I/O和WebSocket通信。

开发者工具

kotlin sdk

kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。

开发者工具

typescript sdk

用于构建模型上下文协议(MCP)客户端和服务端的TypeScript SDK。

开发者工具

mcp server hello

mcp-server-hello 是一个基于 Rust 的 MCP 服务器模板,实现了资源、Prompt 和工具的基本管理功能,可作为构建 MCP 服务器的起点。

开发者工具

mcp text editor

tumf_mcp-text-editor 是一个MCP文本编辑器服务器,提供基于行操作的文本文件编辑和访问能力,专为LLM工具优化,支持高效的分段文件读取和冲突检测。

网页与API

openrpc mpc server

基于OpenRPC的MCP服务器,提供JSON-RPC调用和发现工具,增强LLM与外部JSON-RPC服务交互的能力。

AI与计算

federated mcp

ruvnet_federated-mcp 是一个基于 Model Context Protocol (MCP) 规范的联邦式 AI 服务运行时系统,支持边缘计算能力,旨在简化 AI 系统与各种数据源的集成,并实现跨多个 MCP 服务器的上下文信息共享和工具调用。

AI与计算

oatpp mcp

基于Oat++框架的MCP服务器库,支持资源、工具和Prompt管理,可通过STDIO或SSE集成。

开发者工具

mcp server hello

一个基于 Rust 的 MCP 服务器模板,演示了如何实现资源、Prompt 模板和工具的托管与管理,并提供与 LLM 客户端进行 JSON-RPC 通信的基础框架。

开发者工具

go mcp server service

这是一个使用Go语言编写的MCP服务器示例,专注于笔记管理,实现了资源、Prompt和工具的基本功能,可作为开发自定义MCP服务器的脚手架。

开发者工具

mcpmock

mcpmock是一个CLI工具,用于模拟MCP服务器,通过YAML文件预设场景响应JSON-RPC请求,方便MCP客户端测试和开发。

开发者工具

foxy contexts

基于Golang开发的库,用于声明式构建Model Context Protocol (MCP) 服务器,支持资源、工具和Prompt等核心概念,并提供Stdio和SSE传输。

开发者工具

mcp kotlin sdk

MCP Kotlin SDK 提供构建和运行 MCP 服务器及客户端的能力,示例代码展示了资源和工具管理功能。

开发者工具

mcp time

mcp-time 是一个简单的 MCP 服务器,用于获取当前时间。它通过 JSON-RPC 协议响应请求,返回 JST 格式的当前时间字符串,适用于需要时间功能的 LLM 应用。

AI与计算

model context protocol rs

一个Rust实现的MCP服务器,提供资源管理、工具调用和Prompt模板功能,支持STDIO和SSE传输协议,用于构建LLM应用的上下文服务后端。

开发者工具

ex mcp test

ExMCP Test Server 是一个使用 Elixir 语言开发的 MCP 协议测试服务器,实现了资源、工具和 Prompt 模板的管理功能,用于实验和验证 MCP 协议的各项特性。

开发者工具

go mcp server service

该仓库实现了一个基于JSON-RPC 2.0协议的MCP服务器,用于管理笔记,并提供Prompt模板和工具扩展功能,是一个轻量级的MCP服务器示例。

AI与计算

Pandas Data Analysis

该仓库实现了一个基于MCP协议的服务器,通过调用Python Pandas库,为LLM客户端提供CSV数据分析和可视化的工具服务。

AI与计算

CrewAI (Near Intents)

CrewAI MCP Server是一个基于Python实现的MCP服务器,它利用Claude API提供AI智能体和任务管理能力,支持通过JSON-RPC协议进行工具调用和会话交互。

开发者工具

OpenRPC

一个基于 OpenRPC 协议的 MCP 服务器,通过工具提供 JSON-RPC 服务调用和发现能力,允许 LLM 客户端与 JSON-RPC 服务交互。

开发者工具

WordPress AI Integration

WordPress MCP Server 通过 JSON-RPC 接口,为 LLM 提供对 WordPress 网站内容(如文章)的创建、读取和更新能力,实现 AI 与 WordPress 内容管理的集成。

AI与计算

Lingo.dev

Lingo.dev CLI 提供 MCP 服务器模式,允许 AI 客户端调用其翻译工具进行文本本地化。

开发者工具

Quarkus MCP Server

Quarkus MCP Server是一个基于Quarkus框架的扩展,用于简化Model Context Protocol (MCP) 服务器的开发,帮助开发者轻松构建LLM应用的后端服务,实现与外部数据源和工具的无缝集成。

AI与计算

Minecraft Model Context Protocol

MCPMC是一个MCP服务器,使AI代理能够控制Minecraft机器人,通过JSON-RPC提供对Minecraft世界信息和操作的标准化访问。

开发者工具

MCP Server Starter

MCP Server Starter是一个基于TypeScript的模板,用于快速构建MCP服务器,方便AI智能体与各种工具和数据源集成。