返回首页

"工具执行" 标签

501 个结果

标签搜索结果

开发者工具

Unity Agent Bridge MCP Server

基于 Model Context Protocol (MCP) 的 Unity 编辑器后端实现,提供资源与工具管理、提示模板渲染等能力,并通过 MCP 标准协议(JSON-RPC 形式的输入输出)与客户端通信,支持多种传输(此实现基于 stdio 传输)以向 LLM 客户端提供一致的上下文服务。

AI与计算

Turbo EA MCP Server

基于 Model Context Protocol 的后端服务,提供对 Turbo EA 数据的只读访问、资源与工具注册与执行,以及 Prompt 模板定义与渲染,供大语言模型以标准化的 JSON-RPC 方式查询和调用。该仓库实现了一个可运行的 MCP 服务器,包含 OAuth/SSO 集成、REST 风格资源与工具的实现,以及用于 AI 客户端的 Prompts 定义与渲染能力,支持本地测试(stdio 模式)与容器化部署。

AI与计算

WhatsApp MCP-Go 服务器

基于 Model Context Protocol (MCP) 的 WhatsApp 后端服务器实现,使用 Go 语言编写,提供工具注册与执行、会话管理与多传输模式支持,旨在为大模型客户端提供统一的资源访问、外部功能调用和上下文渲染能力,并可与 WhatsApp Bridge 集成使用以实现对话上下文的实时服务。

AI与计算

Shepherd MCP 后端服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的定义渲渲染,并通过 JSON-RPC 与 Claude Desktop 等 MCP 客户端进行通信,支持多传输方式以实现对大语言模型的上下文服务。

AI与计算

MCP Context Provider

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化方式提供上下文资源、可注册工具、以及可渲染的提示模板,支持跨会话的记忆与学习。

AI与计算

OmniRoute MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具注册与执行、以及 Prompt 模板渲染,提供 JSON-RPC 通信、会话管理与多传输协议支持的 MCP 服务端结构。

开发者工具

Clarvis MCP Server

基于 Model Context Protocol(MCP)的嵌入式后端实现。提供资源访问、工具执行与提示/上下文渲染能力,使用 JSON-RPC 通过 Unix 套接字与 LLM 客户端通信,包含会话管理、能力声明与多种传输适配的实现框架。该实现将资源、工具、以及与 LLM 交互所需的上下文信息暴露给客户端,方便构建对话型应用的上下文服务后端。

AI与计算

MemoryOS MCP 服务端

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供健康检查、资源与工具注册、提示模板渲染、仪表板与 PDF 报告等多工具,通过 JSON-RPC 与客户端进行交互,支持标准化的上下文服务。

AI与计算

CPE 多服务器 MCP 实现

基于模型上下文协议(MCP)的后端实现,提供对资源、工具的注册与执行,以及走向统一的 Prompt 渲染,支持标准的 JSON-RPC 交互和多传输协议(如 STDIO、HTTP、SSE)以对接 LLM 客户端。

网页与API

BrowseAI MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、资源/会话管理,以及将网页检索、Extract、Answer 等能力以 MCP 规范对接到 LLM 客户端的上下文服务与功能。

AI与计算

Plasmite MCP 服务器

基于 MCP(Model Context Protocol)实现的后端服务,向大语言模型(LLM)客户端以标准化的 JSON-RPC 方式提供资源、工具和提示模板等上下文能力,并支持远程访问、UI 展现及多传输协议等场景。

网页与API

LocalBoards MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 形式与搭载的 LLM 客户端进行安全、可扩展的上下文服务。该仓库实现了一个可运行的 MCP 服务器端,包含对看板相关资源(Boards、Areas、Cards、Comments 等)的管理、工具执行及通知等功能,并集成了身份认证、邮件发送等服务。

AI与计算

zhi Model Context Protocol 服务端

基于 Model Context Protocol 的后端服务器,向大型语言模型客户端提供资源管理、工具注册/执行以及可定制的提示模板等上下文服务;通过 JSON-RPC 进行请求/响应,并支持多种传输方式(如标准输入输出、HTTP SSE、WebSocket),实现会话管理与能力声明,面向配置管理场景的强扩展后端。

AI与计算

Perstack MCP 服务端与微代理框架

基于 Model Context Protocol 的 MCP 服务器实现与微代理运行时框架,提供服务器端托管资源、工具注册与执行能力,并通过标准接口与 MCP 客户端进行 JSON-RPC 通信,支持在内存、STDIO/SSE 等传输通道上运行,便于构建可扩展的LLM上下文服务。

AI与计算

Konkin MCP 服务端

一个基于 Model Context Protocol (MCP) 的服务端实现,作为后端向大模型/LLM 客户端提供资源、工具调用和提示模板等上下文信息,通过 JSON-RPC 形式进行通信,并支持 SSE、WebSocket 等传输方式及会话管理、能力声明等安全可扩展的上下文服务框架。

开发者工具

BizTalk to Logic Apps MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,作为后端上下文服务端,向 MCP 客户端提供资源、工具、提示模板等(Resources、Tools、Prompts)的管理与执行能力,并通过 JSON-RPC 与客户端进行通信。服务器负责会话管理、能力声明、以及对多种传输协议的支持(本仓库实现了标准输入/输出的 stdio 传输模式),为 LLM 应用提供安全、可扩展的上下文服务框架,适用于 BizTalk 到 Logic Apps 的迁移场景。

网页与API

JD.AI MCP 服务端

基于 JD.AI 架构的 MCP 服务器实现,提供资源管理、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行上下文服务交互,支持多传输协议以实现安全可扩展的后端上下文服务。

AI与计算

GitNexus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板的标准化上下文服务,用于向大语言模型客户端提供代码库知识、资源访问、工具执行和提示渲染能力,并通过多种传输协议与客户端进行交互。

AI与计算

oh-my-codex MCP 后端服务器集合

基于 Model Context Protocol (MCP) 构建的后端服务器集合,提供资源/内存等资源管理、工具注册与执行,以及提示模板渲染等能力,作为 LLM 客户端的上下文与功能服务提供商。包含 state/memory/code_intel/trace/team 等独立 MCP 服务,通过 JSON-RPC 风格的请求/响应进行交互,并可通过 StdIO 启动在后台运行,支持会话管理与多传输协议适配,面向真实的 MCP 客户端使用场景。

AI与计算

Sentinel AI - MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供资源、工具与提示模板等上下文能力,通过 JSON-RPC 进行请求/响应处理,并支持会话管理与多传输协议扩展,适用于将 LLM 客户端接入 Sentinel AI 的上下文服务框架。

AI与计算

LFX Changelog MCP Server

基于 Model Context Protocol (MCP) 的后端服务,用于向 LLM 客户端提供资源、工具和提示模板,支持通过 JSON-RPC 与客户端交互,并实现会话管理与多种传输方式的 MCP 服务端能力。

AI与计算

PHMForge MCP Backends (双服务器实现)

基于模型上下文协议(MCP)的双服务器后端,提供资源、工具与提示模板的注册与执行能力,向LLM客户端以标准化JSON-RPC方式暴露上下文服务与功能。

AI与计算

Corpus Intelligence MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化方式提供资源、工具与提示模板,并通过 JSON-RPC 与客户端交互,实现会话管理、能力声明与多传输协议支持。

AI与计算

Atmosphere MCP 服务端

基于 Atmosphere 框架实现的 Model Context Protocol(MCP)服务器。该服务端承担资源管理、工具注册与执行、以及 Prompt 模板的渲染等核心 MCP 功能,并通过 JSON-RPC 与 LLM 客户端通信,提供安全、可扩展的上下文服务框架,同时支持多传输协议(WebSocket、SSE、Long-Polling 等)以适配不同场景。

开发者工具

PMAT-MCP-Agent-Toolkit

基于 Model Context Protocol (MCP) 的服务器实现与工具包,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等能力,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议(_stdio、SSE、WebSocket)等,目标为为 LLM 客户端提供安全、可扩展的上下文服务框架。

网页与API

MCP Agent Mail

基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,向大语言模型客户端以标准化JSON-RPC方式提供资源、工具和Prompt模板等上下文能力,并通过HTTP传输在人机/代理之间进行可审计的协作与对话管理。

AI与计算

Mai-Tai MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具与 Prompt 的管理与执行,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多工作区、实时通知与会话管理。

AI与计算

OpenPencil MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管/访问、工具注册/执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC/SSE/HTTP 等传输机制与 LLM 客户端进行上下文服务与协作。

AI与计算

thesvg MCP服务器

基于 Model Context Protocol (MCP) 的后端实现,向 LLM 客户端以标准化方式提供图标资源、可注册的工具以及可渲染的 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,当前实现包含资源查询、图标获取、分类列表等核心功能。

AI与计算

Scout MCP 服务器端

基于 Model Context Protocol 的后端服务,提供资源管理、工具注册与执行、Prompts 渲染等 MCP 功能,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输协议,作为 Scout 数据代理平台中面向 LLM 的上下文与功能服务端实现。

AI与计算

Kastell MCP 服务端

基于模型上下文协议(Model Context Protocol,MCP)的后端实现,为大语言模型(LLM)客户端提供统一的资源管理、工具注册与执行、以及可定制的 Prompt 模板渲染等功能,并通过 JSON-RPC 与客户端通信,支持多传输协议与会话管理,构建 AI 场景中的上下文服务核心。

AI与计算

Paprika MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,为 LLM 客户端提供 Paprika Recipe Manager 的数据资源、可执行工具以及提示模板,通过 JSON-RPC 与客户端通信。

AI与计算

Brain Ecosystem MCP 服务器实现

基于 Model Context Protocol (MCP) 的多脑自学习后端,提供资源管理、工具注册与执行、以及可渲染的提示模板等上下文能力,并通过 JSON-RPC 与客户端通信,支持 stdio、SSE、WebSocket 等多传输方式。该仓库实现了 MCP 服务器端核心组件,作为 Claude Code 的后端上下文服务入口。

AI与计算

MemberJunction MCPServer

基于 Model Context Protocol (MCP) 的后端服务器实现,用以向 MCP 客户端提供资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的扩展能力(如 StdIO、SSE、WebSocket)。

AI与计算

Cortex

基于模型上下文协议(MCP)的后端服务器,实现资源管理、工具注册与执行,以及 Prompt 模板渲染,面向对话式大语言模型提供标准化的上下文与功能服务。

开发者工具

Agentic MCP 服务器

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供资源管理、工具执行与提示模板渲染等能力,支持 JSON-RPC 通信和多传输协议(如 stdio、SSE、WebSocket),实现对会话、能力声明及可扩展上下文服务的统一管理。

网页与API

Turul MCP 框架(Rust-Beta 实现)

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源管理、工具注册与执行、可自定义的 Prompt 模板渲染,以及多传输协议支持(如 HTTP 流、SSE、AWS Lambda 等),用于向大语言模型(LLM)客户端提供标准化的上下文和功能服务。具备会话管理、任务存储、实时通知、以及对 MCP 2025-11-25 规格的全面实现。

AI与计算

eBay API MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型(LLM)客户端提供统一的 eBay Sell API 资源与工具,以及可定制的 Prompt 渲染,支持 JSON-RPC 通信、会话管理和多传输协议(STDIO/HTTP)等能力。

AI与计算

Von MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端实现,提供面向 LLM 客户端的上下文与功能服务。核心能力包括托管与管理资源(Resources)、注册与执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端进行通信;服务器端负责会话管理、能力声明,以及支持多种传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供可扩展的上下文服务框架。

网页与API

UNITARES MCP 服务器

基于 Model Context Protocol(MCP)的后端服务实现,向大型语言模型(LLM)客户端以标准化方式提供上下文信息与功能:托管资源、注册并执行工具、定义与渲染提示模板;通过 JSON-RPC 与客户端通信,并支持多传输协议(如 STDIO、Server-Sent Events、WebSocket),实现会话管理、能力声明与可扩展的上下文服务框架。

AI与计算

CorvidAgent MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,并通过 JSON-RPC 及 WebSocket/HTTP 等传输向 LLM 客户端暴露上下文与能力。该仓库实现了服务器端的完整 MCP 体系,包含工具箱、资源、提示模板等核心组成部分,以及用于与 MCP 客户端进行通信的路由与路由器。

AI与计算

Remember MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多租户、向量检索、关系图、访问控制等能力。

AI与计算

bknd

基于 Model Context Protocol(MCP)的后端框架,提供资源(Resources)、工具(Tools)、提示模板(Prompts)的托管与管理,并通过 JSON-RPC 与 LLM 客户端进行交互;内置 MCP 服务器实现,支持会话管理、能力声明,以及多传输协议适配,面向 AI 代理和上下文服务场景的扩展型后端解决方案。

AI与计算

kemdicode-mcp

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,提供资源/工具/提示模板的管理与渲染,支持 Redis 持久化、JSON-RPC 通信以及多传输方式(如 StdIO、HTTP/WS),为 LLM 客户端提供结构化上下文服务与分布式协作能力。

AI与计算

FOUNDATION MCP 服务器实现

基于 Model Context Protocol (MCP) 的本地后端服务器,向 LLM 客户端提供资源、工具与提示模板的统一上下文服务。通过 JSON-RPC 与客户端通信,服务器在 FOUNDATION 应用内运行,暴露本地知识图谱、工具执行能力以及可渲染的 Prompt 模板等功能,便于多样化的 LLM 交互场景。

AI与计算

spanner-mycli MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信;实现会话管理、能力声明,并支持多种传输方式,作为面向大语言模型的上下文服务框架。

AI与计算

SubNetree MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,作为 SubNetree 后端的一部分,统一向大型语言模型客户端提供上下文资源、可注册与执行的工具,以及可渲染的提示模板。当前实现通过标准输入输出传输(stdio)提供 MCP 服务,内部通过 ReconStore/vault 等模块暴露设备与硬件信息、服务清单等资源,并注册一组工具供 LLM 客户端查询与操作,同时以 JSON-RPC 方式进行请求/响应通信,适合与 Claude Desktop 等客户端进行集成和对接。

AI与计算

OmniSpecialist MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,托管资源、注册工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端进行交互,支持跨进程/网络传输以提供可扩展的上下文服务。

开发者工具

Sontag MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务,实现对资源、工具、提示模板的管理与渲染,并通过 JSON-RPC(基于 stdin/stdout)与 LLM 客户端进行交互,提供会话管理、工具注册与调用、以及可定制的 Prompt 渲染等能力。

AI与计算

Adjutant MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板等能力,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多传输通道(SSE、WebSocket、标准输入输出等)与会话管理。

AI与计算

OpenPencil MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具与提示模板的标准化访问与执行能力,支持 JSON-RPC 通信、会话管理以及多传输协议(如 Stdio、HTTP、SSE、WebSocket),用于与 LLM 客户端构建安全、可扩展的上下文服务后端。

AI与计算

Kahunas MCP 服务器实现

基于 Model Context Protocol (MCP) 的 Kahunas 服务端实现,将 Kahunas API 功能以 MCP 工具的形式暴露给大模型客户端,支持资源管理、工具执行、提示模板渲染等上下文服务,提供 stdio、HTTP/SSE、streamable-http 等传输方式,并通过 JSON-RPC 进行通信与会话管理。

AI与计算

Demarkus MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源/文档管理、工具(Tools)的注册与执行、以及对外提供的提示模板等能力,客户端通过 JSON-RPC 与服务器通信;实现了多工具入口、会话/认证支持,以及通过标准输入输出(STDIO)的 MCP 服务端。

AI与计算

MCP Serve - Model Context Protocol 后端服务器

基于 Model Context Protocol 的后端 MCP 服务器实现,提供可执行的 MCP 服务(工具、资源、提示等能力)以供 LLM 客户端访问,采用 JSON-RPC 风格进行通信并支持多种传输方式(如 Server-Sent Events)。

网页与API

Switchboard

基于 Model Context Protocol (MCP) 的后端服务器,聚合 GitHub、Datadog、Linear、Sentry、Slack、Metabase 等多种集成,向大语言模型客户端提供上下文资源、可注册执行的工具,以及可渲染的 Prompt 模板,并通过 JSON-RPC 框架实现统一的 MCP 服务入口和网页配置界面。

AI与计算

DevTeam6 MCP 服务器合集

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,并通过 MCP 标准的 JSON-RPC 风格接口与客户端通信,适合作为 LLM 的上下文与功能后端。

AI与计算

Azure Pricing MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供,以统一的资源、工具和提示模板接口向大语言模型客户端暴露 Azure 定价、SKU 发现、区域推荐等功能的 MCP 服务器实现

AI与计算

Ripperdoc MCP 服务器端实现

基于模型上下文协议(MCP)的后端服务实现,标准化向LLM客户端暴露资源、工具与Prompt模板,支持JSON-RPC通信、会话管理与能力声明,并可通过多传输协议(如 Stdio、SSE、WebSocket)提供上下文服务与扩展能力。

AI与计算

OpenFang MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管与访问、工具注册与执行、以及提示模板的定义与渲染,支持 JSON-RPC 通信和多传输适配的上下文服务框架。

开发者工具

Magpie MCP 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源、工具和 Prompt 的注册、托管与渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持多种执行环境用于 AI 代理的上下文服务。

AI与计算

MCP Boilerplate 服务器(Model Context Protocol 后端)

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册/执行、资源接口、日志通知和 SSE 传输等能力,供大语言模型客户端以标准化上下文服务进行上下文获取、工具执行和提示模板渲染等任务。

AI与计算

SecureYeoman MCP 服务器

基于 Model Context Protocol 的企业级 MCP 服务器实现,向 LLM 客户端提供资源、工具和提示等上下文信息,通过 JSON-RPC 进行通信,支持多传输通道(stdio、SSE、WebSocket)以实现高效的上下文服务。该仓库内包含完整的 MCP 服务器实现及相关 API、传输、会话与安全机制等模块。

AI与计算

NovaNet MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,提供资源、工具和提示模板的托管与管理,通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互;底层与 Neo4j 数据库协同,支持多工具执行、上下文组装和生成提示的完整后端服务。

开发者工具

XC-MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端通过 JSON-RPC 提供统一的上下文信息与功能。该服务器聚合 Xcode 构建、模拟器、资源缓存、持久化等资源与工具、提示模板的访问、执行与渲染,支持会话管理与能力声明,默认通过 STDIO 传输进行通信,便于在对话式 AI 应用中嵌入与扩展。

AI与计算

Seren MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,能够托管资源、注册工具、定义和渲染 Prompt,支持 JSON-RPC 通信,具备本地与嵌入式 MCP 服务器的管理能力。

AI与计算

enjoy-mcp-服务器

基于模型上下文协议(MCP)的后端服务实现,提供对 Enjoy 游戏的工具管理与查询能力,通过 JSON-RPC 形式与 MCP 客户端(如 Claude)进行交互,核心功能聚焦工具注册与调用,支持通过标准化接口获取项目状态、排行榜、玩家信息、GitHub 活动等数据。该实现使用 Stdio 传输,适合嵌入到 Claude Code/桌面端等工作流中进行上下文服务接入。

AI与计算

Tiburcio MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板等上下文能力,采用 JSON-RPC 与客户端通信,支持多种传输方式(stdio、HTTP/SSE 等),并实现了 10 个 MCP 工具以便 Claude Code 进行高效、上下文化的回答与操作。

开发者工具

Harness MCP Server 2.0

基于 Model Context Protocol 的后端服务器实现,通过 JSON-RPC 规范向 LLM 客户端提供 Harness 平台的资源、工具与提示模板等上下文服务,支持多传输协议与会话管理,具备完整的工具注册、资源注册与提示模板渲染能力。

开发者工具

Browser Debug MCP Bridge 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供浏览器调试上下文的资源、工具与提示模板的管理,并通过 JSON-RPC 与客户端进行通信。

AI与计算

Sellf MCP 服务器( Claude Desktop 版本)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 定义与渲染,并通过 JSON-RPC 与客户端通信,支持多种传输协议,用以向 LLM 客户端提供一致的上下文与功能。若干资源、工具和提示可通过 MCP 服务器集中管理与渲染,适用于 Claude Desktop 等集成场景。

AI与计算

JFL Context MCP 服务器套件

基于 Model Context Protocol 的后端实现集合,提供用于 LLM 的上下文资源管理、工具执行与提示模板渲染的 MCP 服务器。仓库中包含多个独立的 MCP 服务器实现(如 Context Hub、Service Registry、Service MCP 等),通过 JSON-RPC 对外暴露工具集和接口,支持与 Claude Code、Clawdbot 等 MCP 客户端进行交互,以及与 Context Hub 的交互与协作。

网页与API

JustOneAPI MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,暴露 JustOneAPI 的工具与资源,向大型语言模型客户端提供统一的上下文访问入口,并原样返回上游 API 的原始JSON数据以保持数据保真。

AI与计算

Atlas MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多传输协议(如 Stdio、SSE、WebSocket)。

AI与计算

Webhooks-CC MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供标准化的资源、工具和提示模板管理能力,供大语言模型(LLM)客户端通过 JSON-RPC 调用,实现对 Webhooks 场景的上下文服务、工具执行与数据访问。该仓库包含可运行的 MCP 服务器实现及对应工具集,用于将 AI 助手接入 webhooks 平台的资源与功能。

AI与计算

MCP_NodeServer – Model Context Protocol 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具和提示(Prompts)的注册、管理与执行,通过 JSON-RPC 与 MCP 客户端通信,支持多传输通道(如标准输入输出)以为大语言模型客户端提供可扩展的上下文服务。

AI与计算

Corpus Intelligence MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通讯,支持多传输通道(SSE/StdIO),为写作语料的上下文服务与工具化访问提供统一后端。

AI与计算

Claude Sidecar MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,实现标准化的上下文提供与外部功能调用能力。该服务器托管资源与工具,定义并渲染 Prompt 模板,支持 JSON-RPC 通信,提供会话管理与跨传输协议(如 StdIO、SSE、WebSocket)等能力,专为 Claude Desktop/Cowork 等客户端提供并行化的上下文服务。

AI与计算

CodeGraphContext MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行以及可渲染的 Prompt 模板,旨在以标准化的 JSON-RPC 方式向 AI 客户端提供代码上下文与功能支持,并可通过多种传输协议与会话管理实现安全、可扩展的 MCP 服务。

AI与计算

Canopy MCP 服务器

基于 Canopy 的 MCP(Model Context Protocol)后端实现,提供资源、工具与提示模板等上下文服务,并通过 STDIO/HTTP 等传输协议与 LLM 客户端进行 JSON-RPC 通信与协作。

AI与计算

Voyage AI MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,作为后端上下文服务提供者,统一托管资源(Resources)、注册与执行 Tools、以及渲染 Prompt 模板;通过 JSON-RPC 与客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket),实现会话管理和能力声明,帮助 LLM 客户端以标准化方式获取上下文、外部功能和提示模板。

AI与计算

AIquila MCP 服务端

基于 Model Context Protocol(MCP)实现的后端服务器,为大型语言模型客户端提供标准化的上下文服务,包含资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持标准化传输通道(如 STDIO、HTTP)。

开发者工具

GoPeak-Godot-MCP 服务器端实现

基于 Model Context Protocol (MCP) 的 Godot 项目后端服务器,实现资源、工具、Prompts 等 MCP 核心能力,并通过 JSON-RPC 与客户端进行通信,提供会话管理、能力声明、工具执行与数据渲染等功能。

AI与计算

UIMap MCP 服务器实现

一个基于 Model Context Protocol(MCP)的后端服务器实现,为大型语言模型(LLM)客户端提供统一的上下文信息与功能,包括工具的注册与执行、资源访问和提示模板渲染,支持通过 JSON-RPC 与客户端通信,且可通过本地或网络传输(如 Stdio)进行集成。

网页与API

JamJet MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行,以及提示模板渲染,并通过 JSON-RPC 与客户端进行标准化交互。

AI与计算

Mind 模型上下文服务端

基于 Model Context Protocol (MCP) 的后端实现,用于向大语言模型客户端以标准化方式提供资源、工具、提示模板等上下文及功能,并通过 JSON-RPC 进行通信,支持 STDIO 与 HTTP 传输模式以及多种会话管理能力。

开发者工具

pūrmemo MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、及 Prompt 模板渲染,通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明与多传输协议(如 STDIO、SSE、WebSocket)的上下文服务框架。

网页与API

maintenant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,实现资源(Resources)、工具(Tools)和提示模板(Prompts)的管理与渲染,提供标准化的 JSON-RPC 交互给 LLM 客户端,并支持多种传输方式(stdio、Streamable HTTP、SSE/WebSocket 等)以及 OAuth2 安全认证,是一个面向 MCP 客户端的后端服务实现。

AI与计算

Pipulate MCP 服务器

基于 Model Context Protocol 的后端服务器,实现对资源、工具和 Prompt 的管理与渲染,支持 JSON-RPC 交互、WebSocket/SSE 等传输,面向本地化LLM客户端提供可扩展的上下文服务框架。

AI与计算

tilth MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Tilth 的 MCP 服务端,通过 JSON-RPC 在标准输入输出(stdio)上与客户端通信,向 LLM 客户端提供资源、工具注册与执行、以及提示模板的管理与渲染等能力,支持会话管理、能力声明以及多种工具接口

网页与API

DataPulse MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,用于向 LLM 客户端以标准化方式暴露资源、工具与提示模板;通过 JSON-RPC 与客户端通信,内置本地 MCP 服务与可选的 FastMCP 适配,支持通过标准输入输出(stdio)方式作为 MCP 服务器运行。

网页与API

Fiddler-MCP 服务器端实现

基于 Model Context Protocol 的后端服务,提供资源管理、工具执行和提示模板等能力,通过 JSON-RPC 与 LLM 客户端交互,实现对 Fiddler 实时 traffic 的 MCP 封装与分析。

AI与计算

Dadam Cabinet MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息和功能。核心职责包括托管和管理 资源(Resources)、注册与执行 工具(Tools)、以及定义和渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持多种传输介质(如 STDIO、HTTP)。仓库内实现了 MCP 服务端核心、工具集合、绘制与 BOM 生成等关键模块,具备可运行的服务端代码与测试用例。

AI与计算

DotAgents WhatsApp MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供通过 MCP 客户端进行 WhatsApp 消息收发、工具执行和对话上下文管理的能力,支持多种传输方式及会话持久化。

AI与计算

Sentinel AI MCP 服务器实现

基于模型上下文协议(MCP)的后端服务,向 MCP 客户端提供资源、工具注册/执行以及提示模板渲染等上下文服务,通过 JSON-RPC 与客户端通信,支持会话管理和多种传输模式以支撑 LLM 应用的安全上下文服务。

AI与计算

Uderia MCP 服务器端平台

基于 Model Context Protocol(MCP)的企业级后端服务器,提供资源、工具、提示的托管与渲染能力,以及会话管理、能力声明和多传输协议支持,面向 LLM 客户端以标准化的 JSON-RPC/MCP 交互模型提供上下文和执行能力。

AI与计算

Neo4j Agent Memory MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,提供资源存储、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多传输方式以供 LLM 应用使用。

AI与计算

Tim 模型上下文协议服务器

基于 Model Context Protocol 的后端服务器实现,向语言模型客户端提供标准化的上下文信息和功能。核心能力包括托管与访问资源、注册与执行工具、定义与渲染 Prompt 模板;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输协议(stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

开发者工具

Forge-MCP Server 集成套件

基于 Model Context Protocol (MCP) 的多引擎后端服务器集合,核心职责是通过 JSON-RPC 2.0 与 LLM 客户端通信,提供资源托管与数据访问、注册和执行工具、定义与渲染 Prompt 模板等能力,支持多种传输形态并实现会话与能力声明,适合将 AI 客户端接入到各种构建、测试、环境管理等后端服务场景。

AI与计算

Super Turtle MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端提供工具、资源和 Prompt 渲染等上下文能力。仓库实现了两个 MCP 服务器(send-turtle 与 bot-control),通过 JSON-RPC 草案标准与客户端通信,并使用文件系统 IPC 机制协调后台任务与 Claude Telegram Bot 的交互。

网页与API

Siyuan Bullet Journal MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,作为 SiYuan 插件后台数据服务端,提供任务数据的资源读取、项目与分组查询,以及按条件筛选事项的工具执行能力,支持与 MCP 客户端通过 JSON-RPC 进行通信。

AI与计算

DBT Nova MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,向大型语言模型(LLM)客户端提供统一的上下文服务,包括资源管理、工具注册与执行、以及可自定义的 Prompts 渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备可扩展的传输协议支持能力(如 Stdio、SSE、WebSocket 等)。

AI与计算

20x MCP 服务器后端实现

基于 Model Context Protocol 的桌面后端实现,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 在本地与远程客户端通信;包含会话管理、能力声明以及对多传输协议的支持,便于在本地环境下为 LLM 客户端提供结构化上下文与外部功能调用能力。

网页与API

ProxyWhirl MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,作为后端服务向 LLM 客户端暴露资源、工具和提示模板等上下文信息,通过 JSON-RPC 提供资源访问、工具执行和提示渲染能力,支持会话管理与多传输协议的扩展能力。

AI与计算

Spacebot MCP Server

Spacebot 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力。通过 MCP 标准协议与客户端进行 JSON-RPC 通信,支持本地 stdio 与 HTTP 传输,并在配置中实现对 MCP 服务器的注册、监控与热重载,作为多进程/多任务 AI 应用的上下文与工具服务后端。

AI与计算

Borg MCP 服务器实现集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供资源管理、工具注册/执行以及提示/模板渲染等能力,供 LLM 客户端通过 JSON-RPC 与多种 MCP 服务器进行交互。仓库内包含多个独立的 MCP 服务端实现(如 lexis-mcp、lawborg-mcp、borg-mcp 等),通过 StdioTransport 提供标准化的服务入口,支持工具列表、工具调用以及跨提供方的集成能力。

AI与计算

Mnemonic MCP 服务器

一个本地的 MCP(Model Context Protocol)服务器实现,提供记忆库管理、嵌入向量存储、工具执行以及基于提示的交互渲染,核心通过 JSON-RPC 与 LLM 客户端进行资源、工具和提示的访问与执行。支持多 Vault(全局主 Vault 与项目 Vault)的会话管理、迁移、同步等能力,适合在本地环境中为 LLM 应用提供可扩展的上下文服务。

AI与计算

FOUNDATION Local MCP Server

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,嵌入 FOUNDATION 桌面应用中,通过 JSON-RPC 提供资源管理、工具注册/执行以及提示模板等上下文服务,供本地 AI 客户端请求并获得标准化响应。

网页与API

EasyBits MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(资源管理与数据访问)、工具(外部功能注册与调用)、以及提示模板(Prompts)的标准化提供,采用 JSON-RPC 形式与客户端通信,具备会话管理、能力声明,并可扩展多种传输方式。

AI与计算

Skylos MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供上下文信息与功能。核心能力包括托管与管理 Resources(数据资源)、注册与执行 Tools(外部功能)、定义与渲染 Prompts(提示模板),通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)实现安全、可扩展的上下文服务。该实现与 Skylos 项目紧密集成,提供对代码分析结果、资源访问、工具执行等能力的统一后端服务。

AI与计算

Spring AI Agent MCP Server Platform

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、以及提示模版渲染等核心能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明以及多种传输协议(如 SSE、WebSocket、STDIN/STDOUT 等)以为大型语言模型应用提供可扩展的上下文服务。

AI与计算

TuitBot MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端以标准化的 JSON-RPC 形式提供资源管理、工具执行以及提示模板等能力,支持多运行配置(Profile),并通过 stdio 传输与客户端进行交互。该实现包含服务端核心逻辑、工具清单、工厂化的适配器以及对各运行档案的支持,属于完整的服务器端实现而非仅仅示例。

AI与计算

tack-mcp 服务端

基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端以标准化方式暴露上下文资源、可执行工具与提示模板,并通过 JSON-RPC 形式进行交互,支持会话管理与多种传输通道的对接(当前实现以 STDIO 传输为主)。

AI与计算

Tollama MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染,通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输协议的可扩展上下文服务。

开发者工具

go-unifi-mcp

基于 Model Context Protocol 的 UniFi MCP 服务器实现,提供资源管理、工具执行和提示模板渲染等能力,通过 JSON-RPC 与 LLM 客户端通信,支持多传输和会话管理。

网页与API

Spectral MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供工具注册与执行、资源访问、以及对话模板渲染等能力,允许通过 JSON-RPC 与客户端协同工作,并通过 STDIO 传输实现与 LLM 客户端的通信。

网页与API

Bluesky Community Feed MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,统一管理资源、注册并执行工具、定义并渲染提示模板,并通过 JSON-RPC 与 LLM 客户端进行通信,提供可扩展的上下文服务与多传输协议支持。

AI与计算

OmniSpecialist MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、工具注册与执行、以及 Prompt 模板定义与渲染等功能,通过 JSON-RPC 在 MCP 客户端(如大模型代理)与服务器之间进行通信,当前实现以标准输入输出(Stdio)传输,便于与 Claude 等代理进行无缝对接并扩展为其他传输协议。

AI与计算

SageFs MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,使用 JSON-RPC 进行通信,支持多会话和热重载能力,并通过 SSE/HTTP 等传输方式向 LLM 客户端暴露上下文服务。

AI与计算

Proletariat MCP Server

基于 Model Context Protocol 的后端服务器,提供资源管理、工具注册/执行和提示模板渲染的标准化服务,采用 JSON-RPC 与 LLM 客户端通信,支持多传输协议并具备会话管理与能力声明能力。

开发者工具

Quern MCP 服务器

基于 Model Context Protocol 的本地后端实现,作为 MCP 服务器向 LLM 客户端提供资源托管、工具注册与执行、以及可渲染的 Prompt 模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持多传输协议与会话管理,便于在本地环境调试 AI 驅动的移动开发工作流。

桌面与硬件

mirroir-mcp

基于 Model Context Protocol (MCP) 的服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、Prompts 定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket),用于为大模型/LLM 客户端提供标准化的上下文信息和功能访问。

开发者工具

XcodeBuildMCP

基于 Model Context Protocol(MCP)的后端实现,作为后端服务器向大型语言模型客户端提供资源、工具执行能力与提示模板等上下文服务,支持会话管理、能力声明及多传输协议(如标准输入输出、SSE、WebSocket)等特性,适用于在 iOS/macOS/Xcode 项目中作为代理服务的后端服务器。

AI与计算

Agent-BOM MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源托管、工具注册与执行、以及提示模板渲染等核心能力,面向 LLM 客户端以标准化方式提供上下文信息与功能,支持多传输协议与会话管理底座。

AI与计算

GitNexus MCP后端服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源、工具与提示模版的注册、管理与数据访问能力,支持通过 JSON-RPC 与客户端通信,且实现了可扩展的传输方式(如标准输入输出、HTTP/WebSocket),为大语言模型提供安全、可扩展的代码知识上下文服务。

AI与计算

ALGT MCP 服务器(Prolog 实现)

基于模型上下文协议(MCP)的后端服务器实现,由 Prolog 编写,提供对资源、工具和提示模板的注册、查询与执行能力,并通过 JSON-RPC 与客户端通信,支持会话管理与能力声明,便于将上下文信息和功能暴露给大语言模型(LLM)客户端使用。

AI与计算

Dexscreener MCP Server Tool

基于模型上下文协议(MCP)的后端服务器,提供资源、工具与提示模板等标准化上下文服务,支持以 JSON-RPC 形式与 AI 代理进行交互,便于在不同代理中进行上下文获取、工具调用与提示渲染。

AI与计算

Forge MCP Server

基于 Forge 项目实现的 Model Context Protocol (MCP) 服务器,提供资源、工具与提示等上下文服务,通过 JSON-RPC 方式与 MCP 客户端通信,支持以 STDIO 等传输协议接入,便于将 LLM 调用外部功能、访问数据资源并渲染自定义提示模板等能力。

AI与计算

Kastell MCP 服务端

基于 Model Context Protocol 的后端实现,为 MCP 客户端提供统一的上下文资源、工具执行和 Prompt 渲染能力,采用 JSON-RPC 形式对外提供服务,支持多传输协议,具备会话管理和能力声明等特性,适合作为 LLM 客户端的上下文与功能服务端。

AI与计算

AiDex MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供持久化代码索引、工具注册与执行,以及提示模板管理,能够通过 MCP 客户端以标准化的 JSON-RPC 进行读取资源、调用工具和获取 Prompt 的能力,面向 AI 助手(如 Claude Code、Gemini 等)提供结构化的上下文与功能服务。

网页与API

Guilders MCP 服务器

基于 Guilders API 的 MCP 服务器实现,通过 JSON-RPC 提供资源访问、工具执行以及提示模板渲染等能力,供大型语言模型(LLM)客户端安全地获取上下文数据与外部功能。

AI与计算

PlanExe MCP Server

PlanExe MCP Cloud 是一个基于 Model Context Protocol (MCP) 的后端服务实现,提供标准化的上下文与功能服务给 LLM 客户端。核心包含资源与数据访问、工具注册与执行、以及可渲染的 Prompt 模板。通过 JSON-RPC 与客户端通信,支持通过标准的 HTTP/流式 HTTP 以及本地/云端部署方式,提供会话管理、能力声明与安全认证,并实现下载令牌、日志与活动跟踪等能力,适用于将 PlanExe 的计划生成为上下文服务的一整套解决方案。

AI与计算

Atlas Work MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,围绕 Atlas 的工作管理工具提供工具执行、会话与上下文管理,支持以标准化的 JSON-RPC 形式与客户端交互,使用标准输入输出传输(stdio)来对接 Claude 相关工作流。

AI与计算

Airbroke MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,能够以标准化的 JSON-RPC 方式向 LLM 客户端提供资源管理、工具注册与执行,以及上下文相关的输出(包括提示/模板等),并通过可扩展的工具集合支持多种传输与认证方式,具备会话管理与跨源访问控制能力。

AI与计算

Nex Context MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,托管资源、注册并执行工具、定义并渲染提示模板,提供面向 LLM 的标准化上下文服务与工具执行能力,支持多传输通道(如 Stdio、HTTP、SSE/WebSocket)与会话管理。

网页与API

Grok FAF MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源与工具的托管与访问、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC/HTTP-SSE 与客户端通信,包含会话管理、能力声明,以及支持多传输协议的上下文服务框架。

商业系统

FluentCart MCP 服务器端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的注册、管理与执行,允许通过 JSON-RPC 与任意 LLM 客户端进行上下文信息服务与外部功能调用,并支持多种传输方式与会话能力声明。

AI与计算

mcp-supersubagents

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及模板渲染等能力,通过 JSON-RPC 与客户端通信,支持多提供者协同与并行执行的后端上下文服务。

AI与计算

The New Fuse MCP Server

基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持通过 JSON-RPC 与 MCP 客户端通信,具备对会话、能力声明与多传输协议的支持,属于一个完整的 MCP 服务器实现(含服务器端核心、工具暴露与网络化 MCP 传输适配)。

AI与计算

CCOS-MCP 服务端

基于 CCOS 的 MCP 服务器实现,提供资源管理、工具注册/执行、以及基于 Prompts 的导航与渲染能力,支持通过 JSON-RPC 与 LLM 客户端进行资源读取、工具调用和提示模板获取等标准化上下文服务。

开发者工具

Frontmatter Matters MCP Server

基于 Model Context Protocol (MCP) 的后端服务,实现了一个可对接的 MCP 服务器,向 LLM 客户端提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议扩展。

AI与计算

floop MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,用于向 LLM 客户端以标准化方式提供资源、工具、提示等上下文和功能,通过 JSON-RPC 在标准输入输出(stdio)内通信,支持会话管理与多种传输场景,作为后端后端服务为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

NatShell MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供标准化的资源、工具和提示(Prompts)上下文服务,通过 JSON-RPC 与客户端通信,支持资源管理、工具注册/执行以及提示渲染等核心能力。实现中包含对工具注册、资源列举、资源读取、工具执行等 MCP 核心操作的处理逻辑,并提供了可运行的 MCP 服务入口。

AI与计算

Animus MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,用于以标准化的 JSON-RPC 方式向 LLM 客户端提供上下文资源、工具能力与提示模板;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket),以实现对资源、工具和提示的统一托管与渲染,辅助构建安全、可扩展的 MCP 服务端上下文服务。

AI与计算

JD.AI MCP 服务器实现

基于模型上下文协议(MCP)的后端服务,专注托管与管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板,随后通过 JSON-RPC 与 LLM 客户端进行标准化的上下文交互。服务端负责会话管理、能力声明,并可通过多种传输通道(REST/SignalR、Stdio、Server-Sent Events、WebSocket)实现跨平台的上下文服务能力,适配 JD.AI 生态内的网关、通道与工具体系。

AI与计算

Poiesis MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具与提示的统一注册、管理与访问,通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多模块扩展和 Bearer Token 认证。

AI与计算

AIVI MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板等核心能力的标准化访问。通过 JSON-RPC 与客户端通信,服务器负责资源管理、工具注册与执行,以及提示模板的定义与渲染,支持将语言规范与工具集成到 AI 客户端的上下文服务中。

AI与计算

MD Planner MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为本地 Markdown 项目提供标准化的上下文服务,包括资源托管、工具注册与执行,以及对外暴露的 MCP HTTP/stdio 接口,便于与各类大语言模型或本地 AI 客户端进行深度集成。

开发者工具

Cognetivy MCP 服务端

基于模型上下文协议(MCP)的后端服务器实现,使用标准 JSON-RPC over STDIN/STDOUT,与客户端进行资源、工具、提示等功能的注册、执行与渲染,并提供会话管理与工作流/运行数据的完整 MCP 服务能力。

AI与计算

IronCurtain MCP 服务器框架

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与客户端通信的后端服务,支持多传输通道(如标准输入输出、服务器发送事件、WebSocket),具备会话管理、能力声明与策略执行能力,便于向大语言模型客户端提供标准化的上下文信息和外部功能。

AI与计算

AgentTel MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端暴露监控与运维上下文工具、资源和提示模板等能力,通过 JSON-RPC 进行规范化通信,支持工具执行、资源查询、健康与告警上下文等场景,便于将生产系统上下文整合到 LLM 的决策流程中。

AI与计算

OMEGA Memory MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理与访问、工具注册与执行、以及 Prompt 模板的渲染与上下文服务,支持 JSON-RPC 通信、会话与能力声明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)对接到不同的 LLM 客户端。

AI与计算

Veronica MCP 服务器实现

基于 Veronica Core 的 MCP 服务器实现,提供以标准化 JSON-RPC 形式向 LLM 客户端暴露资源管理、工具注册/执行、以及可渲染的 Prompt 模板等能力的后端组件。通过同步与异步适配器实现对 MCP 请求的处理,支持多传输协议(如 Stdio、SSE、WebSocket),并在服务器端负责会话管理、能力声明、预算约束与安全审计,面向 LLM 应用提供可扩展的上下文服务框架。

AI与计算

XHelio MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 MCP 客户端提供数据资源、工具执行和 Prompt 渲染能力。通过将 XHelio 的 OrchestratorAgent 以 MCP 工具形式暴露,支持以 JSON-RPC 形式进行请求与响应,适用于由 MCP 客户端发起的对话、数据查询和可视化任务的后端服务,且可通过 stdio 等传输通道进行通信。

AI与计算

Epic Scheduler MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和 UI 渲染等能力,使用 JSON-RPC 通过 /mcp 与客户端通信,支持 Durable Objects、WebSocket、SSE 等传输,面向 LLM 客户端的上下文与功能服务。

AI与计算

NanoClawbster MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具以及提示模板等上下文信息,通过 JSON-RPC 与客户端通信,支持多传输通道(当前实现以 stdio 介质为主,后续可扩展为 SSE/WebSocket),并与 Composio 集成以暴露元工具,,用以构建可扩展的对话式 AI 后端服务。

商业系统

Quantum Ledger 财务 MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,暴露财务相关资源、工具和报表模板,供 MLP 客户端通过 JSON-RPC 调用以获取上下文、注册并执行工具、以及渲染 Prompt 模板;并内置 Gemini Bridge 支持,提供对外部模型协作与自动化执行能力。

网页与API

wet-mcp

基于 Model Context Protocol (MCP) 的服务器实现,为 LLM 客户端提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板;通过 JSON-RPC 进行请求/响应,并可在多种传输通道(如标准输入输出、SSE、WebSocket 等)下工作,内部包含会话管理、能力声明和文档/缓存等后端能力,用于构建可扩展的上下文服务平台。

AI与计算

1claw MCP 服务端

基于 MCP 协议的后端服务器,向大型语言模型(LLM)客户端提供对 1claw Vault 的安全上下文信息、工具执行能力以及可渲染的提示资源,并通过 JSON-RPC 风格的请求/响应用以实现会话管理与多传输模式的扩展。

AI与计算

InfiniClaw MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,面向大语言模型客户端提供标准化的上下文服务。

AI与计算

Vestige MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供资源管理、工具执行和 Prompt 渲染等上下文服务,支持 JSON-RPC 通信与多传输通道(此实现以标准输入/输出(stdio)为通信介质)并实现了初始化、工具与资源查询等核心功能。

AI与计算

Awesome Agent Skills MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供技能资源管理、工具注册与执行、以及提示模板渲染,向 LLM 客户端以标准 JSON-RPC 交互提供上下文与能力,支持多传输接口与会话管理。适合作为 AI 代理的可扩展上下文服务端。

AI与计算

ChatML MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,使用 Claude Agent SDK 构建并暴露资源、工具及提示模板,通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议并具备会话和能力管理能力。

AI与计算

JaguarClaw MCP 服务器端

基于 Java Spring Boot 的 MCP 服务器实现,提供资源托管、工具注册与执行、提示模板渲染等能力,遵循 Model Context Protocol,支持 JSON-RPC 形式的请求/响应,并通过多种传输方式(如 STDIO/SSE/HTTP)与 LLM 客户端进行上下文服务交互。

AI与计算

Onshape MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型(LLM)客户端提供 Onshape REST API 的上下文信息、资源和工具,支持资源管理、工具注册与执行,以及提示模板的渲染;通过 JSON-RPC 风格的接口进行交互,具备多传输通道(如 stdio、HTTP)与 OAuth 等认证能力,适合作为面向 AI 助手的上下文服务框架。

AI与计算

Keep MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器实现,聚焦向 LLM 客户端以标准化方式提供上下文资源、可执行工具、以及可定制的 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明并提供多传输协议(如 Stdio、SSE、WebSocket),实现资源托管、工具注册与执行、以及 Prompts 的定义与渲染,旨在为 AI 代理/应用提供安全、可扩展的上下文服务框架。

AI与计算

Distributed Claude Code MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的统一管理与对外服务,作为 LLM 客户端的上下文与能力提供端,并通过远程守护进程实现任务编排、状态管理与多前端接入。系统通过 JSON-RPC/工具调用等机制与客户端对话,支持路由、会话管理以及多传输通道(Web、SSE、StdIO 等)协作。}

AI与计算

Maiat MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、Prompt 模板等上下文信息的注册、管理与对外服务,通过 JSON-RPC 与 MCP 客户端通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,面向 LLM 客户端提供安全、可扩展的上下文服务框架。

商业系统

SalesIQ 上下文服务端

基于 Model Context Protocol 的企业级后端实现,提供资源读取、工具执行、提示模板管理等能力的 MCP 服务器实现,用于为大型语言模型客户端提供实时上下文数据与外部功能接入。

AI与计算

VibesRails MCP 服务器

基于模型上下文协议(MCP)的后端实现,作为 MCP 服务器向 LLM 客户端提供上下文信息、资源与工具,并支持提示模板的渲染与执行。通过 JSON-RPC 与客户端通信,提供资源读取、工具调用、Prompt 获取等能力,支持会话管理、能力声明以及多传输协议(如 stdio)的扩展性上下文服务框架。

AI与计算

LibrAgent MCP 服务器端

基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等能力,面向对接本地大模型客户端的上下文服务框架,支持多种传输协议与会话隔离。

网页与API

LibScope MCP Server

基于 Model Context Protocol (MCP) 的本地知识库后端服务器,提供资源管理、工具注册与调用、提示模板渲染等能力,并通过 JSON-RPC 与 MCP 客户端通信,支持多种传输协议以便与大语言模型进行安全、可扩展的上下文服务交互。

AI与计算

oh-my-codex MCP 服务端集合

基于 Model Context Protocol(MCP)的后端服务器集合,为 OpenAI Codex 及其生态中的多代理系统提供资源管理、工具执行、提示模板等统一的上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输通道(如 STDIO)。

AI与计算

VellaVeto MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 客户端的上下文与能力提供者,托管资源、注册并执行工具、定义与渲染 Prompts,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 stdio、HTTP、WebSocket)等能力,附带可审计的合规证据与安全保障。该实现定位为 MCP 服务器端架构,适合将 LLM 客户端接入到受控的工具与资源生态中。

AI与计算

Obsidian-Memory MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,支持以 JSON-RPC 方式与运行在标准输入/输出、SSE、HTTP 的客户端进行通信。它将 Obsidian 笔记库与快速查询/推理功能整合,为 LLM 客户端提供安全、可扩展的上下文和功能接口。

AI与计算

FeelUOwn MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,能够向 LLM 客户端以标准化方式提供上下文信息和功能,包括资源管理、工具注册与执行,以及 Prompt 模板的渲染与渲染结果的序列化,通过 JSON-RPC 与客户端通信,并支持流式传输等多种传输模式。该仓库实现了服务器端逻辑和对外暴露的工具/资源接口,便于与大型语言模型进行后端上下文交互与功能调用。

网页与API

Google Drive MCP 服务器

基于 Model Context Protocol 的 MCP 服务器后端,提供对 Google Drive 的资源管理、工具执行和提示模板渲染等能力,通过 JSON-RPC 与客户端通信,支持 STDIO 传输,供大语言模型(LLM)应用读取资源、执行工具、以及获取或渲染提示。该实现包括资源读取/搜索、工具执行(如搜索、读取、下载、导出、上传等)以及可选的 Sheets 读取和资源列表示等功能。

AI与计算

AuraSDK MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端进行通信,支持纯 Python 实现与 Rust 实现的双版本 MCP 服务端,适用于 Claude Desktop 等 MCP 客户端场景。

AI与计算

MemOS MCP 服务端

基于 Model Context Protocol (MCP) 的本地后端实现,提供资源(Resources)托管与管理、工具(Tools)注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 的 MCP 协议与客户端通信,当前实现以 STDIO 传输为主,支持后续扩展的传输协议。

AI与计算

RagOps MCP 服务集合

基于模型上下文协议(MCP)的后端服务器集合,提供托管资源、注册并执行工具、定义与渲染提示模板等能力,并通过 JSON-RPC 与客户端通信。该仓库实现了多台内置 MCP 服务器以及一个统一的 MCP 服务端,支持本地(stdio)、WebSocket/SSE 等传输协议的扩展上下文服务框架,适用于将大模型客户端接入到后端资源、工具与提示模板的强大上下文服务。

AI与计算

Edge Trade MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具调用与上下文渲染,供大语言模型客户端通过 JSON-RPC 进行高效、可扩展的上下文服务访问。

AI与计算

AnviLLM MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供 JSON-RPC 接口用于注册与执行工具、管理资源与会话,并通过 9P 文件系统暴露资源接口,支持安全的代码执行工具与跨后端协作。

AI与计算

Dexto MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输协议并实现会话管理与能力声明。

网页与API

MiroThinker MCP 服务器组件集

基于 Model Context Protocol 的后端服务器集合,提供多个 MCP 服务器用于向 LLM 客户端暴露 Tools、Resources 与 Prompts,并通过 JSON-RPC 及多端传输协议(如 STDIO、SSE、WebSocket)进行交互,支持工具执行、网页检索、内容提取、音视频处理等多种能力。

AI与计算

FoundryVTT MCP Server

基于 Model Context Protocol (MCP) 的 FoundryVTT 后端服务器,实现资源托管、工具注册与执行,以及提示模板渲染,通过 JSON-RPC 与客户端进行通信,支持多传输协议并提供会话管理与健康诊断等能力。

开发者工具

CLEO MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与数据访问、工具(Tools)的注册与执行、以及提示模板(Prompts)的定义与渲染;通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明与多传输通道,构建面向LLM应用的可扩展上下文服务框架。

AI与计算

Athena MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管与访问、工具注册与执行、以及 Prompt 模板的渲染与管理;通过 JSON-RPC 方式与客户端通信,支持多传输协议(如标准输入输出和 SSE),实现会话管理、能力声明与权限控制,面向 LLM 客户端提供可扩展、可审计的上下文服务框架。

AI与计算

AgentMemory MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具和提示模板的注册、执行与渲染,并通过 JSON-RPC 风格的 MCP 端点与客户端交互,支持嵌入式与独立两种运行模式。该仓库提供完整的 MCP 服务端实现、工具/资源/提示的暴露以及相应的 REST/MCP 接口,便于与 Claude、Cursor、Windsurf 等 MCP 客户端对接。

AI与计算

Claude Context Optimization MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供上下文优化与工具执行能力,供 LLM 客户端通过标准化的 JSON-RPC 接口读取资源、注册并执行工具、以及渲染和获取优化后的 Prompt,基于 stdio 传输模式实现 MCP 的核心通信。

AI与计算

codemem MCP服务器

基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板渲染等上下文服务,采用 JSON-RPC 风格接口进行通信,支持在本地 SQLite 存储中管理会话、记忆、工具输出等上下文信息。该仓库内含完整的 MCP 服务器实现及相关组件,可作为可运行的 MCP 服务端使用。

AI与计算

ATaC MCP Server

基于 Model Context Protocol (MCP) 的服务器端实现,提供对资源、工具和提示模板的托管、注册与执行能力,并通过 MCP 客户端以 JSON-RPC 方式进行交互,支持将 ATaC 工作流在生产环境中作为上下文服务对接到强大的大语言模型客户端。

AI与计算

MCP Boilerplate Rust

基于 Model Context Protocol (MCP) 2025-11-25 规范的多传输 MCP 服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,支持通过 JSON-RPC 与客户端通信,涵盖 stdio、HTTP/SSE、WebSocket、gRPC、HTTP streaming 等传输模式,具备会话管理与观测能力。

AI与计算

PDF Oxide MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供对 Resources、Tools 和 Prompts 的标准化托管与交互,客户端通过 JSON-RPC 与服务器通信,支持会话管理、能力声明,以及多种传输协议扩展。仍需配合仓库中的客户端进行使用。

AI与计算

PRISM MCP 服务器

基于 Model Context Protocol 的后端服务,暴露 PRISM 的资源、工具和提示模板等功能,使用 JSON-RPC 通过多种传输(本仓库默认 stdio)与 LLM 客户端进行通信。

网页与API

Phrase MCP Server

基于模型上下文协议(MCP)的后端服务器,向语言模型客户端以标准化的 JSON-RPC 形式暴露 Phrase Strings 与 TMS 的资源、工具和提示模板,支持多产品运行、会话管理和多传输协议。

AI与计算

Raven MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器实现,作为 Raven 的后端服务,通过 JSON-RPC 2.0 向 LLM 客户端暴露资源、工具和提示模板等上下文能力,支持将 Raven CLI 作为工具执行、资源与对象的查询与管理,并为 agent 与工具链提供统一的上下文服务。

AI与计算

Quackback MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器端实现,向大语言模型客户端提供资源、工具与提示模板等上下文服务,并通过 JSON-RPC 进行通信,包含认证、会话管理与多种传输能力,适用于在本地自托管环境中为智能代理提供上下文与外部功能调用能力。

AI与计算

Nano-Coder MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端通信以支持多种传输协议。

开发者工具

Pare MCP 服务器集成平台

Pare 是一个面向开发者的 MCP 服务器集合,提供资源、工具和提示模板的结构化 JSON-RPC 接口,供大语言模型客户端以标准化方式获取上下文、数据访问与外部功能调用能力。

AI与计算

Crypto Vision MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,作为 LLM 客户端的上下文与能力服务中心,提供资源管理、工具注册与执行,以及 Prompt 模板的定义与渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)实现灵活的上下文服务与扩展能力。

AI与计算

Bacchus VINE MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,为大语言模型客户端以标准化方式提供 VINE 任务图的资源、工具和提示模板;通过 JSON-RPC 进行通信,支持多传输方式(如 StdIO、SSE、WebSocket),并实现会话管理、能力声明及对 vine 文件的读写/扩展能力。

网页与API

FreshContext MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,向 LLM 客户端以标准化的 JSON-RPC 形式提供带时间戳的资源、工具和促发模板,支持多传输协议、会话管理与安全控制,便于构建可扩展的上下文服务。

开发者工具

AgentDecompile MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供上下文资源、可注册/执行的工具,以及可渲染的提示模板,采用 JSON-RPC 与客户端通信,并支持多种传输协议(stdio、HTTP 流式、SSE/WebSocket)以实现安全、可扩展的上下文服务。

AI与计算

i18n CodeLens MCP 服务端

基于 Model Context Protocol 的 MCP 服务端实现,为 LLM 客户端提供翻译资源、工具执行和引用信息等上下文服务,集成 i18n CodeLens 的资源管理与自动化工具。

AI与计算

Stacker MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具及提示模板的托管与管理,并通过 JSON-RPC/WebSocket 形式与 LLM 客户端进行通信,实现会话管理、能力声明与多传输协议的上下文服务。

AI与计算

BetterDB Memory MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供以标准化 JSON-RPC 方式向 LLM 客户端暴露资源访问、工具注册与执行,以及提示/模板渲染能力的服务器端服务,用于在 Claude Code 等环境中提供可扩展的上下文与功能服务。

AI与计算

PromptWheel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文信息托管和功能调用,支持会话管理与跨会话记忆,面向自动化代码与软件工程场景的上下文服务框架。

AI与计算

UltraCode MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,集中管理资源、注册与执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议,提供本地化的代码上下文服务与扩展能力。

AI与计算

Remnant MCP 服务器

基于 Remnant 的 JSON-RPC 2.0 MCP服务器实现,向 Claude Code 等 MCP 客户端暴露内存检索、内存记录、代理执行任务与技能执行等工具接口,并提供内置的内存提示/模板渲染能力。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多通道传输(HTTP/SSE/WebSocket),为 LLM 应用提供标准化的上下文与功能服务。

网页与API

Actual Budget MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,桥接 LLM 客户端与 Actual Budget 数据、工具与 Prompts,提供资源访问、工具调用与 Prompt 渲染等能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理与认证等商业级特性。

开发者工具

wt-tools MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源读取、工具执行、以及上下文相关能力,能够通过 Claude Code 等 LLM 客户端以 JSON-RPC 风格进行交互,向客户端提供工作区状态、Ralph 循环状态、团队活动等资源,并暴露可执行的工具集和资源查询、记忆等能力,支持插件式扩展与多机器协作场景。

AI与计算

Nido MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供标准化的资源与工具管理、以及对 Prompts 的支持,通过 JSON-RPC 与 LLM 客户端进行通信,并可在 STDIN/STDOUT 等传输通道下工作。

AI与计算

Corvia MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,实现资源托管、工具注册/执行与 Prompt 模板渲染,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文与功能,并通过 Axum 构建的 MCP 服务端实现会话管理、能力声明与多传输协议支持(如 Stdio、SSE、WebSocket)以服务化地提供组织级记忆与上下文服务。

AI与计算

Tessera MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,使用 JSON-RPC 机制与 LLM 客户端进行通信,支持多传输协议(包括标准输入输出、SSE、WebSocket)并内嵌 SQLite/FAISS 等组件实现安全、可扩展的上下文服务框架。

AI与计算

MemoryLayer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理和多传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

Nebula MCP 服务器实现

Nebula 是基于 Model Context Protocol 的 MCP 服务器实现,能够对接 LLM 客户端,通过 JSON-RPC 提供资源管理、工具注册与执行、以及提示模板渲染等上下文服务,支持 STDIO 与 HTTP/SSE 等传输方式,便于在云安全场景中为 AI 助手提供后端能力。

开发者工具

Decibel Tools MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供项目上下文、资源管理、工具执行和提示模板渲染等能力,支持多传输协议(stdio、HTTP、桥接等)以及插件化工具集,通过 JSON-RPC/HTTP 与客户端通信,具备会话管理、能力声明与安全可扩展的上下文服务框架。

AI与计算

Simple-CLI MCP 服务器集成与实现

基于 Simple-CLI 的 Model Context Protocol (MCP) 服务器实现与示例集合,提供资源、工具、提示模板等 MCP 核心能力,并通过多种本地实现(如 Stdio 传输)对接 LLM 客户端,实现资源管理、工具注册/执行和提示渲染等功能。

AI与计算

llm-energy MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持 JSON-RPC 通信与多传输接入,面向 LLM 客户端提供统一的上下文与功能入口。

开发者工具

nix-logseq-git-flake

基于 MCP 的服务器端组件,通过 logseq-cli 提供 MCP 服务器,实现资源管理、工具调用和 Prompt 渲染,为 LLM 客户端提供上下文信息和功能,支持 HTTP 与 STDIO 传输。

AI与计算

OpenContext MCP 服务器

基于 Model Context Protocol (MCP) 的本地化后端服务器,提供对资源(Memory/Context)、工具以及提示模板的托管、注册、执行与渲染,并通过 JSON-RPC 与 LLM 客户端进行交互,支持本地存储、会话管理以及多种传输方式。

AI与计算

Antigravity MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,作为 Antigravity-Manager 项目的一部分,提供标准化的模型上下文后端能力:托管 Resources(资源与数据)、注册与执行 Tools(外部功能调用)、定义与渲染 Prompts(提示模版),并通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明以及多种传输协议,实现跨 OpenAI/Claude/Gemini 等协议的统一上下文服务和模型路由能力。

AI与计算

Sayou MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化的 JSON-RPC/工具调用方式提供资源存储、工具执行和提示渲染等能力,并支持会话管理、权限控制与多传输协议(标准输入/输出与 HTTP 流式传输),实现面向 AI 代理的上下文服务平台。

AI与计算

QdrantRAG-DyTopo MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,提供向量检索、工具调用与 DyTopo 多代理路由等能力,旨在为本地离线/私有环境中的大模型客户端通过 MCP 协议以标准化方式获取上下文资源与功能。

AI与计算

OpenPaean MCP Server

基于 Model Context Protocol 的本地 MCP 服务器实现,提供资源读取、工具调用和工具/资源清单等核心 MCP 功能,用于本地 MCP 客户端对接的上下文服务和工具执行能力。

AI与计算

IDA-MCP 服务器(Rust 实现)

基于 Model Context Protocol (MCP) 的后端服务,在 Headless IDA Pro 环境中对接模型驱动的客户端,提供资源管理、工具执行、以及自定义提示模板等核心能力,客户端通过 JSON-RPC 进行请求与响应,用于 AI/LLM 场景下的代码分析与逆向工程协作。

AI与计算

MCP Inspector 服务器端实现

基于 Model Context Protocol(MCP)的后端实现,提供资源托管与管理、工具注册与执行、以及提示模板的渲染与测试能力,并通过 JSON-RPC 与 LLM 客户端进行交互。支持多传输协议(如 SSE、WebSocket、stdin/stdio),用于为 LLM 应用提供可扩展的上下文服务框架。仓库实现包含服务端核心路由、MCP Apps 与 Widget 集成、OAuth/API Key 等认证测试用例,以及用于调试与开发的工具和中间件。

网页与API

zkmin MCP 服务器实现

基于 zkmin 的 MCP 服务器实现,提供资源、工具与提示模板的托管与渲染;通过 JSON-RPC 与客户端通信,支持 HTTP/SSE 传输,用于向大语言模型客户端提供可上下文化的后端能力与交互功能。

AI与计算

Solvr MCP 服务端

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及可渲染的提示模板,采用 JSON-RPC 与 LLM 客户端通信,支持通过标准输入输出(stdio)对接多种 AI 客户端插件与工作流。当前实现覆盖初始化、工具列表以及工具调用等核心 MCP 场景,并附带一个可运行的工具集(solvr_search、solvr_get、solvr_post、solvr_answer、solvr_claim)。

AI与计算

Crew MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,向 LLM 客户端通过标准化的JSON-RPC提供资源、工具和提示模板,并支持多传输协议(stdio/SSE/HTTP),实现会话管理与能力声明,便于上下文信息的安全、可扩展加载与调用。

AI与计算

Claude Cognitive MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,为 LLM 客户端提供资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信及多传输协议(如 STDIO、HTTP/SSE/WebSocket)以实现安全、可扩展的后端上下文服务。

开发者工具

Playwriter MCP 服务器

基于 Model Context Protocol (MCP) 构建的 MCP 服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息与功能,包括资源管理、工具注册与执行,以及 Prompts 的定义与渲染,支持本地/远程 relay 环境与多传输通道的 JSON-RPC 通信。

AI与计算

Agent Layer MCP 服务器框架

基于 Model Context Protocol(MCP)的后端框架,提供资源托管、工具注册与执行、以及基于模板的 Prompt 渲染,支持 JSON-RPC 通信与多传输协议(如 StdIO、SSE、WebSocket)以向 LLM 客户端提供上下文信息与外部功能。仓库不仅包含客户端示例,还实现服务器端能力、Prompts 及与客户端的集成运行逻辑。若要在实际环境中搭建 MCP 服务器,可使用内置的 MCP Prompts 服务器和通用服务器配置来对接不同的 MCP 客户端。

AI与计算

mcp-agents

基于 Model Context Protocol 的服务器实现,将 Claude Code、Gemini CLI、Codex 作为工具对外暴露,供 MCP 客户端调用并通过标准输入输出进行通信。

网页与API

Keep MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,提供标准化的后端上下文服务,能够向客户端暴露 Resources、Tools,以及通过 MCP 协议读取和执行操作的能力,并以 JSON-RPC 形式进行请求/响应。实现了 MCP 的核心处理路径(初始化、获取资源、读取资源、列出工具、执行工具),并提供一个可运行的服务器接口入口(包括在 STDIO 模式下接收请求并返回响应的能力)。

AI与计算

foobara-py MCP 服务器实现

基于 Foobara 的 MCP 服务器实现,提供资源(Resource)、工具(Tools)、提示模板(Prompts)等 MCP 组件的服务器端能力,通过 JSON-RPC 形式在 STDIO 通道下与客户端进行上下文信息与功能交互,支持命名域、会话、与命令注册的 MCP TOOL 列表与调用等核心能力。

AI与计算

agent-memory MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,为 AI Agent 提供长时记忆、工具执行和资源管理能力,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输通道(如 StdIO、SSE、WebSocket)。

开发者工具

Docs MCP Server

基于模型上下文协议(MCP)的多租户文档上下文服务端,提供资源托管、工具注册与执行、Prompts 定义与渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持健康检查、会话管理与多传输协议扩展,适用于为大语言模型提供可控的上下文与功能门控。

开发者工具

mcp-use

基于 Model Context Protocol (MCP) 的完整 MCP 服务端框架与生态系统,提供可扩展的 MCP 服务器实现、资源与工具托管、提示模板渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,适用于搭建支持 LLM 的上下文服务后端。

商业系统

Katana MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,支撑 LLM 应用的上下文与功能服务。

开发者工具

Engram MCP Server

基于 Model Context Protocol (MCP) 的 Engram 内存管理后端实现。该服务器将内存资源、工具执行和提示模板通过 MCP 协议对外暴露,支持 Claude Code/Cursor/Codex 等客户端的上下文注入、记忆操作和提示渲染,且具备会话管理、能力声明及多传输协议适配能力。仅作为 MCP 服务端实现,与客户端无关。

网页与API

GTM MCP Server

基于 Model Context Protocol 的服务器端实现,作为 MCP 后端为 LLM 客户端提供资源、工具、Prompts 的标准化上下文与功能服务,通过 JSON-RPC 与客户端通信,并支持多种传输方式的扩展与会话管理。

AI与计算

Titan Memory MCP 服务器

基于 Titan Memory 的 Model Context Protocol (MCP) 服务器,采用 JSON-RPC 与客户端进行资源、工具、提示模板等上下文能力的标准化交互,支持多传输协议、会话管理与安全认证,面向 LLM 客户端提供可扩展的上下文服务框架。

开发者工具

Godot MCP Unified Server

基于 Model Context Protocol (MCP) 的完整后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与 LLM 客户端通信,支持 Godot 引擎与编辑器插件的桥接执行,满足在多传输通道下的上下文服务需求。

商业系统

go-invoice MCP 服务器

基于 Model Context Protocol (MCP) 的本地化后端服务器,提供资源、工具和提示模板等上下文能力,通过 JSON-RPC 与 Claude Desktop/Code 客户端通信,支持 HTTP 和 stdio 双传输,适配本地发票管理的 AI 场景。

AI与计算

ayga-mcp-client

基于 Model Context Protocol 的 MCP 服务器实现,通过 Redis API 提供解析器集合、工具执行和上下文提示等能力,向 LLM 客户端提供结构化的上下文服务与任务执行入口。

AI与计算

Swarm Tools MCP 服务器

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,围绕 Swarm 的 Hive/Hivemind/Swarmmail/Swarm 工具等组件,通过标准化的 JSON-RPC 接口向 LLM 客户端暴露工具注册、资源访问、提示模板等能力,并以 stdio 为传输实现服务器端与客户端的通信与协作。

AI与计算

My AI Resources MCP 服务端集合

基于 Model Context Protocol (MCP) 的后端服务器实现集合,用于向大语言模型客户端提供统一的上下文服务,包括资源(Resources)的托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染。仓库内含 Memory Bank 与 Cursor Shortcuts 两个成熟的 MCP 服务器实现示例,均通过标准的 JSON-RPC 形式与客户端通信,并提供以Stdio等多种传输方式的支持。

AI与计算

GateFlow MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,提供对 HDL/SystemVerilog 相关资源、工具调用以及提示模板的标准化访问,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互。

开发者工具

CodeAgent MCP 服务器套件

基于 Model Context Protocol (MCP) 的多模块后端服务器集合,向 LLM 客户端以标准化方式提供资源、工具和提示模板的访问、执行与渲染能力,支持跨多个 MCP 服务的协同工作与会话管理。

AI与计算

News Digest MCP Server

基于模型上下文协议(MCP)的后端服务器实现,处理 JSON-RPC 请求,提供初始化、工具列表以及将 Claude 的 selections 写入本地文件的能力,并附带输入校验与日志记录。

AI与计算

Claude Task Master MCP 服务器端

基于 Model Context Protocol(MCP)的后端服务器,实现资源对接、工具注册/执行与提示模板渲染等能力,向大语言模型客户端提供标准化的上下文服务,通过 JSON-RPC 进行通信,支持多传输协议和会话管理,适用于多实例协同的上下文服务场景。

AI与计算

LandingAI ADE MCP 服务器(TypeScript实现)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理以及 JSON-RPC 通信,支持标准化的上下文服务与多传输协议。

AI与计算

Google Cloud DevOps MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,向大语言模型(LLM)客户端提供标准化的上下文服务,包括资源(Resources)的管理、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议(如 STDIO、SSE、WebSocket)的扩展能力。

网页与API

Feonix Insight MCP KB Server

基于模型上下文协议(MCP)的知识库后端服务器实现,提供资源管理、工具执行以及提示模板等功能,并通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持网络访问与安全认证。该仓库中存在实现 MCP 的服务器端代码(如 mcp_kb_server.py、feonix_kb_server.py 等),实现了 Initialize、Tools、Resources 等 MCP 端点及健康检查等功能。

AI与计算

Converse MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 Stdio、SSE、WebSocket)以构建面向 LLM 的上下文服务框架。

AI与计算

Zuraffa MCP 服务器

基于模型上下文协议(MCP)的后端服务,向大型语言模型客户端提供资源、工具和提示模板的上下文能力,通过 JSON-RPC 的方式进行请求/响应,并支持多种传输协议(如 STDIO、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AI与计算

Temple Vault MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具、提示模板等核心接口,使用 JSON-RPC 与客户端通信,向 LLM 客户端提供资源访问、工具调用与提示渲染能力,并支持多种传输协议(stdio、SSE、streamable-http 等)。

AI与计算

Claude-Mem MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册/执行、Prompt 定义与渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理与多传输协议,作为 LLM 应用的上下文服务后端。

AI与计算

agnix MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向大模型客户端以标准化方式提供资源、工具与提示模板等上下文能力;通过 JSON-RPC 与客户端通信,支持多传输协议(stdio、SSE、WebSocket),并实现会话管理、能力声明以及对 MCP 请求/响应的处理。

AI与计算

Sei-MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供资源、工具与 Prompt 的注册、执行及渲染能力,并通过 JSON-RPC 进行通信,支持会话管理与多传输协议的后端上下文服务。

AI与计算

Consolidation Engine MCP 服务器

基于 Model Context Protocol (MCP) 的多层后端服务,向大型语言模型客户端提供资源管理、工具执行与 Prompt 模板渲染等上下文与功能,支持多种传输通道(stdio、HTTP、WebSocket、UDP InterLock)实现可扩展的上下文服务框架。

AI与计算

MeMesh

基于 Model Context Protocol (MCP) 的后端服务器(MeMesh,原 Claude Code Buddy),为大语言模型客户端提供记忆化上下文、资源管理、工具执行与可定制的 Prompt 模板渲染,支持 JSON-RPC 通信、会话管理以及多传输协议(如 Stdio、SSE、WebSocket)。

AI与计算

TodoFlow MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源(任务)的托管与数据访问、工具注册与执行、以及面向 LLM 的提示/上下文渲染能力,并通过 MCP 方式与客户端进行 JSON-RPC 风格的交互,支持流式响应和多种传输场景(如 SSE)。

AI与计算

Hive MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,用于以标准化的 JSON-RPC 方式向 LLM 客户端提供资源、工具及上下文相关功能,采用标准输入输出(STDIN/STDOUT)进行通信,便于 Claude Code 等客户端对接执行与查询。

开发者工具

Omen MCP 服务器端

基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端暴露资源、工具以及 Prompt 模板等分析能力,支持多种传输方式并提供会话与能力声明等 MCP 核心功能。

AI与计算

Auxilia MCP 服务端

基于 FastAPI 的 MCP(Model Context Protocol)服务器实现,提供对资源、工具和提示模板的托管与执行能力,支持与单个或多服务器协作、OAuth/API Key 授权、工具同步、以及流式传输等特性,面向 LLM 客户端提供标准化上下文服务。

网页与API

Unicon MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向大语言模型客户端提供资源管理、工具执行与提示模板的统一上下文服务,并通过 JSON-RPC 与客户端进行通信。

AI与计算

Epicflare MCP 服务端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文与功能交互,部署在 Cloudflare Workers 中以实现安全、可扩展的上下文服务。

网页与API

Unified Hi-Fi Control MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供对 Unified Hi-Fi Control 桥接器的工具集访问能力,通过 JSON-RPC 与 Claude 等 LLM 客户端进行交互,支持以统一接口调用中控工具并获取响应。

AI与计算

Moonbridge MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板等上下文信息的管理与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持并发执行、会话管理与多种传输方式以支持对话型 AI 应用。

AI与计算

Arena MCP Server

基于 MCP 协议的后端服务器,暴露 Arena PLM REST API 的查询与数据获取能力,供大语言模型客户端通过 JSON-RPC 调用工具、读取资源并渲染提示模板。

商业系统

Autotask MCP Server

基于 Model Context Protocol (MCP) 的 Autotask MCP 服务器,向大语言模型客户端以标准化方式提供 Autotask 数据资源、工具执行能力和提示模板,支持多种传输协议(stdio、HTTP Streamable),并实现会话管理与资源/工具的统一访问。

AI与计算

Memo MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源索引查询、工具调用与提示渲染能力;通过 JSON-RPC(以标准输入输出传输)与客户端进行通信,支持会话管理、能力声明和简单的状态监控,便于将本地代码库上下文提供给大语言模型客户端使用。

网页与API

Griffin API MCP服务器

基于 Model Context Protocol (MCP) 的后端服务,向大型语言模型(LLM)客户端提供 Griffin API 的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持 STDIO 传输等多种传输方式,帮助在对话中访问和操作银行相关数据。

AI与计算

Revit MCP Server

基于 Model Context Protocol 的 Autodesk Revit 后端服务器,提供资源管理、工具注册/执行和提示模板渲染,并通过 WebSocket 与 LLM 客户端进行 JSON-RPC 风格的上下文服务交互。

开发者工具

StoreConfig MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为 StoreConfig 的 MCP 服务器,向 LLM 客户端提供 JSON 结构化的资源、工具和上下文内容,支持通过 JSON-RPC 的请求/响应方式进行资源查询、工具执行、以及对配置模板的交互渲染,帮助 AI 辅助的配置管理场景。

AI与计算

MyProjectManager-Go MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt/模板渲染等能力,面向 LLM 客户端以标准化 JSON-RPC 方式提供上下文与功能服务,支持会话管理、记忆处理与多工具协作。当前实现采用 Go 语言,通过 STDIO 传输实现 MCP 服务端。

网页与API

Orderly Network MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向LLM客户端提供资源管理、工具执行和提示模板等上下文信息,支持多传输协议(如 Stdio、HTTP/WebSocket),通过 JSON-RPC 进行请求-响应交互。该实现覆盖资源、工具、Prompts 的注册、查询与渲染,以及会话管理与安全能力声明等核心功能,构成可扩展的对话上下文服务框架。

AI与计算

AgentBusters MCP 集成后端

基于 Model Context Protocol (MCP) 的后端服务器集,提供资源托管、工具注册/执行、以及提示模板渲染等能力;通过 JSON-RPC/HTTP 等传输协议与 LLM 客户端进行标准化通信,支持会话管理、能力声明,并可扩展为多传输通道(如 STDIO、SSE、WebSocket 等)。

AI与计算

Tools 模型上下文协议(MCP)服务器端实现

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,面向大语言模型(LLM)客户端提供标准化的上下文服务。

AI与计算

Zoho Analytics MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)的渲染等能力,允许通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持多传输协议(如流式 HTTP、StdIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。仓库内包含基于 Python 的 FastAPI 实现(以及可选的 Node.js 实现结构),实现完整的 MCP 服务端功能与实际数据源集成。

AI与计算

eBay MCP 服务器端

基于 Model Context Protocol 的服务器端实现,作为后端上下文服务向大型语言模型客户端提供资源、工具与提示模板等能力,支持多传输协议(如 STDIO、HTTP、WebSocket),通过 JSON-RPC 与客户端进行交互,包含会话管理、能力声明与工具/资源模板的注册与渲染。

AI与计算

ZEJZL.NET MCP 服务端实现

基于 Model Context Protocol 的多服务器后端实现,向 LLM 客户端提供资源、工具及可渲染的提示模板等上下文服务,通过 JSON-RPC 与客户端进行通信,支持多种传输方式,具备注册、管理、执行工具以及安全治理等能力。

AI与计算

Altmetric MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端暴露工具(Tools)与外部数据源访问能力,通过 JSON-RPC 风格的请求/响应进行交互,并支持 STDIO 传输以便与本地或嵌入式 LLM 集成。

AI与计算

Fathom MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、会话管理、资源与提示结构的扩展能力,并通过 OAuth 授权安全地将 Fathom 数据(会议、转录、摘要等)暴露给大语言模型客户端进行上下文服务。

AI与计算

Claude LTM MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供统一的资源管理、工具调用和提示渲染能力,以便向大模型客户端(LLM)提供可访问的上下文信息和功能。实现包含对资源(Memory)的托管、工具注册与执行,以及对提示/上下文的组织与渲染,支持通过标准输入输出(stdio)以及 TCP/HTTP 钩子等多种传输方式进行 JSON-RPC 交互。

AI与计算

Promptly MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供会话日志记录、资源与工具的注册与执行、以及对话 Prompts 的渲染与管理,并通过 JSON-RPC 与 MCP 客户端进行通信,支持本地环境下的 Stdio 传输(并具备扩展到其他传输协议的设计)。

AI与计算

Seren Model Context Protocol 服务端实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供对资源(Resource)、工具(Tools)及提示模板(Prompts)的管理与执行能力,并通过标准的 JSON-RPC 与客户端进行通信。支持多服务器配置、OAuth 与微支付等扩展能力,能够作为 LLM 客户端的上下文与功能提供端。

AI与计算

Claw Control MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供对任务、代理人与消息等资源的管理,并通过 MCP 定义的工具接口向 LLM 客户端暴露可执行工具,支持通过标准的 JSON-RPC 风格请求与响应进行交互,传输可通过 STDIO(标准输入输出)实现,便于与 AI 模型或代理进行上下文协作。

AI与计算

MultiversX MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型(LLM)客户端提供资源管理、工具执行和 Prompt 模板渲染等标准化上下文服务,并通过 JSON-RPC 与客户端通信,支持 Stdio、HTTP 等传输模式与 UCP 发现、证据化资产流转能力。

AI与计算

tx MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)注册与执行、以及 Prompt 模板的自定义渲染,使用 JSON-RPC 与客户端通信,支持会话管理、能力声明并可通过多种传输协议(如 Stdio、SSE、WebSocket)对外暴露上下文服务,适用于让 LLM 客户端按统一协议获取上下文与外部功能。

AI与计算

Miroir MCP 服务器

基于模型上下文协议(MCP)的后端服务器,实现资源/工具/提示模板的托管与对外能力暴露,支持 JSON-RPC 请求、SSE 实时传输和会话管理,为 LLM 客户端提供标准化的上下文服务。

AI与计算

Distr MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与访问、工具注册与调用、以及提示模板的定义与渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式(如 STDIO、HTTP、WebSocket 等),用于为大语言模型提供统一的上下文与功能服务。

AI与计算

Claude Agent Ruby MCP Server

基于 Model Context Protocol (MCP) 的在进程内 Ruby 实现的 MCP 服务器,用于向 Claude Agent 提供工具、资源和提示等上下文能力,并通过 JSON-RPC 风格的 MCP 协议进行通信。

AI与计算

Marketing AI MCP

基于 Model Context Protocol (MCP) 的后端实现与运行环境,包含一个可运行的 Google Forms 相关 MCP 服务器以及用于托管和管理 MCP 子服务器的后端支持,能够通过 JSON-RPC/标准输入输出(stdio)等方式与 MCP 客户端交互,提供工具执行、资源管理与请求协同能力。

AI与计算

Thread MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供会话线程的托管与管理、工具注册与执行、以及输出格式的渲染;通过 JSON-RPC 与 MCP 客户端通信,支持本地与远程存储,以及通过标准输入输出(stdio)等传输方式进行交互,适用于在 LLM 应用中提供上下文与功能服务。

AI与计算

Phoebe MCP 服务器(Node 实现)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具执行与提示模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 两种传输模式,便于将 AI 助手接入 Phoebe API 的上下文与功能。

开发者工具

Lights-Out Discovery MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源发现、工具注册与执行、以及通过 JSON-RPC 与 LLM 客户端交互的能力,用于向 LLM 应用提供上下文信息与外部功能。该服务器以 MCP 规范为核心,托管并管理资源、注册工具、渲染提示模板等,支持标准的请求/响应流程。

开发者工具

SousChef MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现;通过标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息、资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持多传输协议(如 Stdio、SSE、WebSocket),用于构建安全、可扩展的 LLM 上下文服务平台。

AI与计算

Databricks AI Dev Kit MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器实现,向大语言模型客户端提供资源管理、工具注册与调用、以及可渲染的 Prompt 模板等能力,通过 JSON-RPC/流式传输等方式进行通信,并具备会话管理、认证、备份与技能管理等完整功能。

AI与计算

Turbopuffer MCP 服务器(TypeScript 实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理、提示模板等能力,并通过 JSON-RPC 与客户端通信,支持 STDIO 与 HTTP 传输,以供 LLM 客户端查询、调用工具和获取上下文信息。

AI与计算

Rossum MCP Server 与 Agent

基于 Model Context Protocol 的后端服务,提供资源管理、工具注册/调用以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,并集成 Rossum API 提供安全、可扩展的上下文服务。

AI与计算

Bugsy MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管与管理、注册与执行工具、以及 Prompt 模板的定义与渲染,面向大型语言模型(LLM)客户端,通过 JSON-RPC 与客户端通信,并支持会话管理、能力声明以及多种传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AI与计算

Workflowy Local MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务器,提供 Workflowy 数据的资源托管、工具执行和提示模板渲染,供大语言模型客户端以 JSON-RPC 的方式读取和操作本地数据。

网页与API

MCP Agent Mail 服务端(Rust 实现)

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板的托管与执行,并通过 JSON-RPC 形式对接 LLM 客户端,支持多传输方式(如标准输入输出/HTTP),为 LLM 应用提供安全、可扩展的上下文服务。

AI与计算

Raku MCP SDK

基于 Model Context Protocol (MCP) 的完整服务器端实现与示例,提供 JSON-RPC 2.0 交互、Stdio/HTTP 等传输、资源/工具/提示的管理,以及会话与扩展能力,面向将 MCP 服务化以供 LLM 客户端调用的后端应用。

开发者工具

AKS-MCP 服务器

基于 Model Context Protocol(MCP)的 AKS 后端服务器实现,向大型语言模型(LLM)客户端以标准化方式提供 AKS 资源、工具与提示模板,支持多种传输协议(stdio、SSE、streamable-http),并实现会话管理、能力声明以及安全认证能力。

AI与计算

GitHub Agentic Workflows MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文、数据访问和外部功能调用能力。

AI与计算

Claude Agent SDK MCP 服务端扩展

基于 Claude Agent SDK 的在进程内 MCP 服务器实现。该扩展通过 pi 主机加载自定义工具并将其以 MCP 服务器的形式暴露给 LLM 客户端,允许 LLM 调用工具、读取资源、渲染并扩展 Prompt,工具在 pi 环境中执行,输出流式更新和结果渲染。

AI与计算

CTX MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具与提示模板的托管、注册与渲染,支持基于 JSON-RPC 的通信、会话管理以及多种传输协议(如 STDIO、HTTP、SSE)以供 LLM 客户端调用。

AI与计算

Plan Cascade MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Plan Cascade 的 MCP 服务端,向 LLM 客户端提供标准化的资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 进行请求/响应通信,支持多传输协议、会话管理与能力声明,确保安全、可扩展的上下文服务。

网页与API

MCP Apps 服务端实现模板

基于 Model Context Protocol 的 MCP 服务器实现模板,提供资源、工具、提示模板等的注册、执行,以及与 MCP Hosts 的协议通信能力,支持资源管理、工具注册与调用、Prompt 模板定义与渲染,适用于在 AI 客户端内提供可渲染的互动 UI 与上下文数据。

AI与计算

Stitch MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具与提示模板的托管、注册与渲染能力,并通过 JSON-RPC 与 LLM 客户端通信。内置会话管理、能力声明以及支持多传输协议的 MCP 服务器代理功能,面向大语言模型应用提供安全、可扩展的上下文服务框架。

AI与计算

Argus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端提供资源管理、工具注册/执行以及提示模板渲染等标准化上下文服务,支持多传输协议并实现会话与能力声明等 MCP 核心能力。仓库中包含用于集成 LispLang LangGraph 与 Playwright 的 MCP 服务实现、以及与 Argus E2E 测试引擎的对接插件。

网页与API

模型上下文协议(MCP)后端服务器实现—Cocos CLI 组件

基于模型上下文协议(MCP)的后端服务器实现,专注为大语言模型客户端提供标准化的上下文服务:托管资源、注册并执行工具、定义和渲染Prompt模板;通过 JSON-RPC 进行通信,具备会话管理与能力声明,并支持多种传输通道,以实现安全、可扩展的上下文服务框架。

开发者工具

Harness MCP 服务器端

基于 Model Context Protocol (MCP) 的完整后端服务器实现,提供资源、工具和提示模板的托管与数据访问,通过 JSON-RPC 形式与 MCP 客户端通信,支持 HTTP 与 stdio 两种传输模式,并实现会话管理、能力声明及多工具集扩展与集成 Harness API 的能力。

AI与计算

OneTool MCP 服务器

基于 Model Context Protocol 的后端服务器实现,向大语言模型客户端提供资源托管、工具注册与执行,以及可渲染的 Prompt 模板,采用 JSON-RPC 进行通信,支持多种传输协议并具备会话管理与能力声明。

AI与计算

NodeSpace MCP Server(核心实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)注册与执行、以及 Prompt 模板的渲染与管理,通过 JSON-RPC 2.0 与本地的 LLM 客户端进行通信。支持多传输协议(如 StdIO、HTTP 及 SSE),具备会话管理、能力宣告和安全可扩展的上下文服务能力,适用于在本地环境下为本地 AI 助手提供稳定的上下文及外部能力接入。

AI与计算

Poe Code MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板的托管与管理,以及通过 JSON-RPC 与客户端进行通信,支持多传输通道,供大语言模型应用安全、可扩展地获取上下文与外部功能。

AI与计算

Codex MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的渲染,使用 JSON-RPC 与 MCP 客户端通信,支持通过 Stdio 传输等多种通道进行上下文服务交互。

AI与计算

ASON MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供 compress_json、decompress_ason、get_compression_stats、configure_compressor 等工具,以 JSON/ASON 数据压缩、解压、分析并支持可配置的全局参数管理

AI与计算

Tweek MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与管理、工具注册与执行、以及 Prompt 模板渲染等核心功能,能够通过 JSON-RPC 与 LLM 客户端进行上下文信息与功能的标准化交互。服务器端负责会话管理、能力声明与多传输通道支持(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

CompText MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行与提示模板渲染能力,面向大语言模型(LLM)客户端以标准化方式提供上下文数据与功能。

AI与计算

ez-xbow-platform-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端提供资源管理、工具执行和提示模板等上下文服务,支持多传输协议、会话管理与本地历史记录,为 AI 驱动的安全挑战赛场景提供后端支撑。

AI与计算

Email MCP Server 示例

一个基于 MCP(Model Context Protocol)协议的后端实现示例,专注于模拟一个邮件发送工具的注册与调用,通过标准的 MCP 流程向客户端暴露工具并支持通过 STDIO 传输与客户端通信。

网页与API

Metronome MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源/上下文能力的托管,以及通过 JSON-RPC 与客户端通信的能力,支持多种传输方式(stdio、HTTP),用于为 LLM 客户端提供稳定、安全、可扩展的上下文服务。

AI与计算

Gmail MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型(LLM)客户端提供 Gmail 相关工具的统一访问接口,支持 JSON-RPC 请求/响应,工具注册与执行,并通过标准化的 MCP 通信传输(如标准输入输出)进行交互。

AI与计算

Ripperdoc MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器,向大语言模型客户端提供资源管理、工具注册/执行和提示模板渲染等能力,并通过 JSON-RPC 进行通信与协作,支持多传输协议(如 Stdio、SSE、WebSocket)和会话管理,提供安全、可扩展的上下文服务框架。

AI与计算

MCPChecker-MCPServer

基于 Model Context Protocol 的可运行 MCP 服务器实现与测试框架,提供工具、资源托管、工具调用执行、以及对扩展与评测的支持,便于对接大语言模型客户端进行上下文服务测试和集成验证。

AI与计算

FreeAct MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供 JSON-RPC 风格的资源管理、工具注册与执行、以及 Prompt 渲染,支持基于 BM25/向量的工具搜索、审批流控制和多种传输模式,面向为 LLM 客户端提供安全、可扩展的上下文服务。

AI与计算

Zoekt MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务,将 Zoekt 代码索引后端作为数据源,向大型语言模型(LLM)客户端提供标准化的上下文信息与功能。核心功能包括托管资源、注册并执行工具(如搜索、文件内容、符号/文件检索、健康检查等)、以及定义并渲染统一的 Prompt 模板,支持 JSON-RPC 交互以及多传输协议(STDIO 和 HTTP/SSE)等安全可扩展的上下文服务框架。

AI与计算

Planet MCP Server

基于 Model Context Protocol 的本地 MCP 服务器实现,提供对 Planet API 的上下文访问、工具调用与提示渲染能力,帮助大语言模型在本地环境中高效地与 Planet 数据和功能交互。

AI与计算

BCS MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供数据资源管理、工具注册与执行,以及与向量化嵌入等组件的整合,作为大语言模型(LLM)客户端的上下文与能力后端服务。

AI与计算

BriefDesk 本地化上下文服务集成

BriefDesk 提供一个本地化的上下文服务方案,包含 Gmail、Google Drive 等 MCP 服务以及一个中心化的上下文搜索与整合组件,用于向本地大语言模型客户端提供资源、工具和提示模板等能力。系统通过 MCP 协议实现可扩展的 JSON-RPC 通信,支持资源检索、外部工具执行和提示渲染,具备会话管理、认证与多协议传输能力。

AI与计算

ClawStreetBets MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,将 ClawStreetBets 的市场与代理管理功能暴露给 AI 客户端,允许通过 JSON-RPC 调用工具、查询资源以及执行投票等操作,并通过 STDIO 传输进行交互。

AI与计算

UnitOne AgentGateway MCP Server 套件

基于模型上下文协议(MCP)的后端网关与测试服务器集合,提供对 MCP 请求的路由与代理、会话管理、工具执行、资源访问,以及安全守护(如 PII 过滤、工具毒性检测、Rug Pull 防护)等功能,同时包含用于本地/云端部署的测试 MCP 服务器实现与示例。

网页与API

Kubescape MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源(Resource)托管、工具(Tools)注册与执行,以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,提供安全、可扩展的上下文服务,便于 LLM 进行集成查询和调用外部功能。

AI与计算

Tabularis MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与数据访问、工具注册与执行、以及用于 LLM 的 Prompt 模板渲染。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(Stdio)传输,读取客户端请求并输出响应;同时具备会话管理、能力声明与资源/工具渲染等核心能力,便于外部代理或图形化客户端接入以提供上下文信息与外部功能调用。

网页与API

CrawlChat MCP 服务端实现

基于模型上下文协议的 MCP 服务器实现,提供资源、工具和提示模板的后端能力,通过 JSON-RPC 与客户端通信,注册并执行工具、管理会话并支持简单的 stdio 传输。

AI与计算

Helpmaton MCP 服务端实现

基于 Model Context Protocol(MCP)的服务端实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与 LLM 客户端通信,管理会话与能力声明,并具备多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,用于对接外部数据源、工具和上下文提示等,实现对 LLM 的上下文服务提供与编排。

AI与计算

Linggen MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供以标准化方式向 LLM 客户端提供上下文信息和功能的能力。通过 JSON-RPC 与客户端通信,核心包含工具注册/执行、提示模板渲染,以及与资源/查询接口的集成。当前实现使用 stdio 传输,在服务端对接 Linggen 后端 API 提供的能力,支撑 LLM 在设计、索引与查询场景中的上下文服务。

AI与计算

LlamaCloud MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,作为 LLM 客户端的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力;通过 JSON-RPC 与客户端通信,支持多传输(如 STDIO、HTTP),并包含会话管理、能力声明与日志控制等核心特性。

通信与社交

discord-py-self-mcp

基于 Model Context Protocol 的 MCP 服务器实现,用于将一个 Discord 自助账户的资源、工具与对话模板通过标准化的 MCP JSON‑RPC 后端对接到 LLM 客户端,支持 stdio 传输并以 JSON-RPC 提供资源、工具执行与提示渲染等功能。

AI与计算

AILSS MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,为 Obsidian 知识库提供资源、工具、提示模板等统一访问接口,通过 JSON-RPC 与客户端通信,支持 STDIO 与本地 HTTP 传输,并与本地向量检索索引数据库协同工作。

AI与计算

Inspector:基于模型上下文协议的本地MCP服务器实现

一个完整的MCP服务器实现,提供资源、工具、提示模板等上下文服务,支持JSON-RPC通信、会话管理与多传输协议,面向本地开发、调试和集成OpenAI/Claude等LLM应用。

AI与计算

Harbor MCP Server Demo - Acme Shop

基于 Model Context Protocol (MCP) 的示例后端,展示如何在 Harbor 生态中托管、暴露 MCP 服务、工具及数据资源,支持通过 SSE/HTTP 等传输方式与 LLM 客户端进行资源访问、工具执行与提示模板渲染等上下文服务。

AI与计算

workspace-qdrant-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 4 种 MCP 工具(search、retrieve、memory、store)的暴露与管理,并通过 JSON-RPC 与 LLM 客户端交互;同时集成 Rust 守护进程 memexd、Qdrant 向量数据库及 SQLite 队列,支持会话管理、心跳机制与降级处理。

AI与计算

XPollination MCP 服务器端

基于 Model Context Protocol(MCP)的后端服务器,提供资源管理、工具注册与执行、以及提示模板的标准化上下文服务,面向 LLM 客户端通过 JSON-RPC 进行通信与交互。

AI与计算

AdCP MCP 服务器

基于 Model Context Protocol(MCP)的广告自动化后端实现,提供资源、工具和 Prompt 模板的托管与管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Moltbook MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,托管并管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),通过标准的 JSON-RPC 方式向 LLM 客户端提供上下文信息与功能,并支持组件化扩展与会话分析。<br/>该仓库实现了完整的 MCP 服务端框架及多组件插件,能够在 Node.js 环境中运行并对外提供 MCP 接口。<br/>注:项目使用 stdin/stdout 作为传输通道(Stdio Server Transport),并提供了丰富的组件体系以实现资源、工具、提示模板等能力。

AI与计算

Arctic MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器端实现,提供资源(Resources)托管与管理、工具(Tools)的注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端进行安全、可扩展的上下文服务交互,支持多传输协议(如 Stdio、SSE、WebSocket)和会话管理等核心能力。

AI与计算

Abstracts Explorer MCP Server

基于 MCP(Model Context Protocol)协议的后端服务器,向 LLM 客户端提供统一的上下文资源、可注册执行的工具以及可渲染的提示/模板,支持 JSON-RPC 通信、多种传输协议,以及会话管理与能力声明,便于在聚类分析、语义检索和论文上下文中为大语言模型提供可扩展的 contexto 服务。

AI与计算

Claude Copilot MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务器集合,提供内存管理、语义检索、知识扩展与技能加载等能力,面向 Claude Copilot 等 LLM 客户端,通过标准化的 JSON-RPC 交互向客户端提供资源、工具、提示等上下文与功能服务。

AI与计算

AIPartnerUpFlow MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。

AI与计算

n2n-memory MCP 服务器

基于 MCP 的本地内存型服务器,提供知识图谱持久化、工具执行与上下文管理,以 JSON-RPC 形式对接 LLM 客户端。

AI与计算

Koder MCP后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务,集成资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式(stdio、SSE、HTTP)以提供可扩展的上下文服务框架。

AI与计算

Agents Council MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,支持多代理协同的会话管理、工具执行和提示渲染,面向 LLM 客户端提供标准化的上下文服务。

AI与计算

Agentic QE MCP Server

基于 Model Context Protocol 的后端服务,作为 MCP 服务器向 LLM 客户端以标准化方式提供资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多传输协议接入(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AI与计算

Oh My OpenCode MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输协议与会话管理以实现安全、可扩展的上下文服务。

开发者工具

TemPad Dev MCP 服务器

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具执行与提示模板渲染等能力,并通过 JSON-RPC 与客户端通信。实现了服务器端的工具注册与执行、资源导出与资产管理、以及对 Prompts/模板的支持,支持多传输协议(如标准输入/输出、SSE、WebSocket 等),用于为大模型/LLM 客户端提供标准化的上下文服务与能力暴露。

AI与计算

Overseerr MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。

AI与计算

MemWyre MCP 服务器端实现

MemWyre 的 MCP 服务器端实现,基于 Model Context Protocol 架构,为 LLM 客户端提供标准化的资源、工具与提示模板,并通过 JSON-RPC 风格接口与客户端通信,支持会话管理、能力声明及多传输通道的扩展能力。

AI与计算

Skrills MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管与访问、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 进行与 LLM 客户端的通信,支持多传输协议用于上下文服务的扩展性。

AI与计算

Xiaozhi ESP32 MCP 服务器(Golang 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。

AI与计算

NiceVibes MCP 服务器

基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。

AI与计算

UDS-POS MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供标准化的资源(Resources)、工具(Tools)以及提示模板(Prompts),通过 JSON-RPC 与 LLM 客户端通信,支持多传输通道并对接 Supabase 数据源,构建面向 AI 赋能的上下文服务框架。该仓库包含一个完整的 MCP 服务器实现(含工具定义、资源暴露、提示模板以及 Prompt 执行逻辑),并以 Stdio 传输方式提供服务入口。

AI与计算

atlas-mcp

基于模型上下文协议(MCP)的服务器实现,向LLM客户端提供ATLAS Central Page的资源、工具与提示模板的统一访问接口,支持JSON-RPC风格请求/响应,以及多传输模式(如STDIO、HTTP)以服务化LLM上下文信息和能力查询。

AI与计算

CodingBuddy MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具、Prompt 的托管、读取和渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议以提供安全、可扩展的上下文服务。

网页与API

Arivu MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。

AI与计算

MCP Mail 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。

AI与计算

ModelCypher MCP 服务器

ModelCypher MCP 服务器是一个基于 Model Context Protocol 的后端服务,提供资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明及多传输协议。

网页与API

Workstation MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源(Resources)托管与数据访问、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC/WebSocket 等通道与 LLM 客户端进行标准化上下文服务交互。

AI与计算

AnkiMCP 服务端(MCP 后端实现)

基于模型上下文协议(MCP)的后端实现,将 Anki 收藏数据作为资源对外暴露,支持注册并执行工具、通过 JSON-RPC 风格的接口与客户端交互,提供权限控制和多种传输方式(如 STDIO、HTTP 等),为大语言模型助手提供可扩展的上下文服务能力。

AI与计算

Memory Library MCP Server

基于 Memory Library 的 MCP 服务器实现,为大语言模型客户端提供统一的上下文、工具、资源和提示,支持通过 JSON-RPC 进行交互,并可扩展的向量检索与嵌入管理能力。

AI与计算

MCP 服务器实现学习与示例

基于 Model Context Protocol (MCP) 的服务器端实现示例,展示如何通过 JSON-RPC 提供资源管理、工具执行与 Prompt 模板渲染等核心能力,并支持通过标准输入输出 (stdio) 的传输模式与客户端进行通信,适合作为学习和实验用途的 MCP 服务器实现。

AI与计算

Edda MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。

AI与计算

MCP SQL Server Backend

基于 Model Context Protocol (MCP) 的后端服务器,实现对 Microsoft SQL Server 的只读资源访问、工具执行与提示模板渲染,支持 JSON-RPC 风格的请求/响应,供 LLM 客户端在对话中获得上下文信息与外部功能。

开发者工具

Apply Task MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持 TUI/GUI 与 AI 助手的集成使用。

AI与计算

TPM-MCP 本地服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,提供资源、工具和提示渲染等能力,供本地 LLM 客户端通过 JSON-RPC 方式访问并管理项目数据(包含会话、能力声明、以及多传输协议支持)。

AI与计算

Singular Blockly Model Context Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供可管理的资源、可注册的工具和可渲染的 Prompt 模板,通过 JSON-RPC 进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明等功能。

AI与计算

ai-infra MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式提供资源管理、工具注册/执行以及 Prompt 模板渲染等上下文服务,支持会话管理、能力声明与多传输协议(如 stdio、SSE、WebSocket),旨在为 LLM 应用提供可扩展、安全的上下文服务能力。

AI与计算

MCP Nim SDK 服务器实现

基于 Nim 的 MCP 服务器实现,提供资源、工具、提示模板等管理,支持多种传输协议(stdio、SSE、HTTP/Streamable、InMemory),并通过 JSON-RPC 与客户端进行请求与响应通信。

AI与计算

DevTeam6 MCP 服务器集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供 Resources 的托管与管理、Tools 的注册与执行,以及可扩展的提示模板/交互能力,并通过标准化的 JSON-RPC 风格接口与 LLM 客户端进行通信,支持会话管理与多种传输场景。当前实现包括 MemoryMCPServer 与 RAGMCPServer 等服务器骨架,可作为 MCP 客户端对接的后端服务端。

AI与计算

Dec MCP Server 实现

一个基于 MCP 的后端服务器实现,提供 JSON-RPC 2.0 的初始化、工具列表与工具执行等核心接口,并通过标准输入输出与客户端通信,支持在本地运行、生成并管理 MCP 配置与规则输出。

AI与计算

AI-Infra-Guard MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 与 LLM 客户端进行通信,支持多种传输通道(如 SSE、StdIO、WebSocket),为大语言模型应用提供标准化的上下文与能力服务。

AI与计算

Polar MCP 服务器桥接

基于模型上下文协议(MCP)的服务器实现组件,作为 Polar 电子应用的一部分,提供工具定义查询、工具执行与健康检查等核心接口,通过 HTTP 端点与客户端通信,并通过 Electron 渲染进程 IPC 与后台工具 definition/执行能力对接,从而向 LLM 客户端暴露资源、工具与提示渲染能力。

AI与计算

Computer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。

AI与计算

Context Finder MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等能力,并通过 MCP JSON-RPC 与客户端通信。该仓库实现了完整的 MCP 服务端逻辑、工具集合和向量存储等组件,支持通过多种传输方式(如 stdio、HTTP、gRPC 等)向 LLM 客户端提供结构化的上下文服务和功能。

网页与API

GitHub MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供对 GitHub 的上下文资源、工具执行与提示模板的标准化访问,支持 JSON-RPC 交互,适配多种传输方式并具备会话管理、能力声明与远程工具发现等能力,用于为大语言模型提供可扩展的上下文服务。

AI与计算

MonicaHQ MCP Server

基于 Model Context Protocol 的 MCP 服务器,使用 Spring Boot 实现,提供 MonicaHQ CRM 数据的资源访问、工具调用及内容渲染,支持 STDIO 与 WebSocket/HTTP 等传输模式,面向大语言模型客户端(如 Claude Desktop)提供标准化的上下文服务。该服务器实现了资源管理、工具注册与执行,以及提示模板渲染等核心能力,以 JSON-RPC 2.0 进行通信。

桌面与硬件

ESP-MCP over MQTT – ESP32 的 MCP 服务器实现

基于 MCP(Model Context Protocol)在 ESP32/ESP-IDF 上实现的 MQTT 传输 MCP 服务器,提供资源管理、工具注册与调用、以及 Prompt/模板支持,利用 JSON-RPC 与客户端通信,适用于边缘设备上的上下文与能力服务。

AI与计算

Cognia MCP 服务端实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。

AI与计算

AstroFusion Design System MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染,使用 JSON-RPC 与客户端通信,当前实现通过标准输入输出传输(Stdio)提供 MCP 服务并暴露设计系统的令牌、组件规则与提示内容。

AI与计算

mcpkit

基于 Model Context Protocol (MCP) 的服务器端实现框架,提供资源、工具、提示的托管、注册、路由与多传输支持,面向 LLM 客户端的上下文服务。

AI与计算

GPT4Free MCP 服务器

基于 Model Context Protocol (MCP) 的多模型上下文服务后端,向 LLM 客户端提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持会话管理并兼容多种传输协议(STDIO/SSE/WebSocket),为 AI 应用提供可扩展、安全的上下文服务框架。

AI与计算

AdCP Sales Agent MCP Server

基于模型上下文协议(Model Context Protocol, MCP)的后端服务器,向大型语言模型(LLM)客户端以标准化方式提供资源数据、工具执行能力和可渲染的提示模板,支持多租户、会话管理以及通过 JSON-RPC 与客户端通信的上下文服务框架,适用于广告投放场景的自动化协作与执行。

AI与计算

WeKnora MCP 服务端

基于 WeKnora 的 MCP(Model Context Protocol)服务器实现,向大模型客户端提供标准化的资源、工具与提示模板的上下文服务,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,用于实现安全、可扩展的上下文环境。该服务器通过 JSON-RPC 与客户端进行通信,承载资源访问、工具注册/执行与提示渲染等核心能力。典型场景包括对接外部知识库、执行工具调用、以及渲染与提供定制化的 Prompt 模板。

AI与计算

Fred MCP 服务器实现套件

基于 Fred 平台的 MCP 服务器实现,提供以标准化方式向大语言模型客户端提供资源、工具、提示模板等上下文与能力的后端服务,并通过 JSON-RPC/多传输通道进行通信。包含知识流后端的完整 MCP 服务、以及用于快速演示的最小 MCP 服务器示例和相应部署示例。

开发者工具

Claude Code Workflow MCP 服务器

基于 Claude Code Workflow 的 MCP 服务器实现,使用 JSON-RPC 与客户端通信,核心职责是托管资源、注册工具、定义并渲染 Prompt 模板,为 LLM 客户端提供可扩展的上下文服务。

开发者工具

MCP Guard 安全网关

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染等核心能力,并通过 JSON-RPC 与客户端通信;内置认证、授权、速率限制、观测与审计等安全特性,支持多传输协议(Stdio、HTTP、SSE)以及多服务器路由场景,能为 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

Concierge MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册/执行、Prompt 模板渲染,并通过 MCP/JSON-RPC 进行客户端交互,支持会话管理与跨协议传输,面向 LLM 客户端提供可扩展的上下文服务框架。

AI与计算

Fastly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并可在 stdio、HTTP(含 SSE)等传输模式下运行,具备会话管理、能力声明和安全保护机制。

AI与计算

Opencode MCP 语义上下文服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供持久化记忆、工具执行和 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持内存资源管理、工具注册/执行、Prompt 渲染,以及会话管理,具备本地向量检索、离线嵌入和多种传输能力的服务端实现。

AI与计算

docsearch-mcp

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。

AI与计算

Claude Sessions MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现 Claude Code 会话的资源管理、工具执行与提示渲染,提供统一的上下文服务给 LLM 客户端,采用 JSON-RPC 进行交互,支持多传输方式并完成会话、资源、工具等能力的托管与管理。

AI与计算

Sunpeak MCP 服务器端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。

开发者工具

HealthSim MCP Server

基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。

AI与计算

Krolik MCP 服务器(Claude Code 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管与管理、工具注册/执行,以及提示模板的定义与渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议的上下文服务框架。

AI与计算

narsil-mcp

基于 Model Context Protocol (MCP) 的高性能本地后端服务器实现,提供资源管理、工具注册与执行、以及基于模板的 Prompt 渲染,支持 JSON-RPC 标准交互、会话管理和多传输协议(如 STDIO、SSE、WebSocket),用于本地化的代码上下文理解与分析场景。内置多语言代码解析、符号与引用检索、调用图与安全分析等工具集,面向离线/隐私安全的 LLM 客户端提供丰富上下文服务。

AI与计算

LDAP Assistant MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 LDAP 目录服务的资源管理、工具执行与提示模板渲染能力,使用 FastMCP 与客户端进行 JSON-RPC 风格的通信,支持多服务器配置、会话管理以及多种传输方式(以 STDIO 为初始实现)。

开发者工具

Reachy 身体控制 MCP 服务器

基于 Model Context Protocol (MCP) 的 Reachy Mini 机器人身体控制服务器实现,暴露23个可通过 MCP 客户端调用的工具,并通过 Reachy Daemon(实际硬件或 MuJoCo 仿真)实现对头部、天线、表情、捕获等操作,支持动态工具发现、权限控制和审计日志等能力。

AI与计算

GTM Wizard MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 AI 代理提供资源、工具、提示等上下文服务,并通过 JSON-RPC 与客户端交互,支持资源管理、工具执行与提示渲染等核心能力。

AI与计算

Super AI Plugin Hub

基于 Model Context Protocol (MCP) 的服务器端框架,聚合、管理资源与工具,并通过 JSON-RPC 将上下文、工具与提示暴露给 LLM 客户端,同时支持本地与远程 MCP 服务器的代理与协作。

AI与计算

mcp-agent-builder-go

基于Go实现的MCP后端服务器,提供资源管理、工具注册与执行、提示模板渲染,以及面向多MCP服务器的上下文服务框架;通过多协议通信(HTTP/SSE/stdio 等)与LLM客户端协同工作,支持任务编排、工具调用、以及会话级别的上下文管理。该仓库不仅包含服务端实现,还包含用于工具、客户端以及前端的相关组件与示例,目标是构建一个可扩展的MCP服务器生态。通过统一的接口实现资源、工具、提示模板的托管、注册与执行。

AI与计算

OOREP MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具注册与执行、以及提示模板渲染,向大语言模型客户端提供可扩展且结构化的上下文服务与数据访问能力。

AI与计算

NetMCP

基于 Model Context Protocol 的 MCP 服务器实现,用于作为后端上下文服务向大语言模型客户端提供资源管理、工具执行和提示模板渲染等能力,支持通过 JSON-RPC 方式与客户端交互并管理会话与安全策略。

AI与计算

LiveKit Agents MCP Server

基于 LiveKit Agents 框架的 MCP(Model Context Protocol)服务器实现与示例,提供资源、工具与提示模板的托管与暴露,支持 JSON-RPC 风格的通信以及多传输协议(如 SSE/WebSocket/StdIO)以供 LLM 客户端访问上下文信息和外部功能。

AI与计算

Lunar MCP Server Kit

基于 Model Context Protocol(MCP)的后端服务器实现示例,提供资源/工具管理、工具执行以及面向 LLM 的上下文渲染能力,展示了如何用 MCPX 服务器核心实现 JSON-RPC 风格的请求/响应,并支持多种传输方式(如标准输入输出、SSE、HTTP 流等)。

AI与计算

MCP Framework - Rust MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器端实现,提供工具、资源、提示的注册与执行,并通过 JSON-RPC 与客户端进行通信,支持多传输方式(HTTP、stdio、Inspector 调试)以为大语言模型提供可扩展的上下文与功能服务。

网页与API

MCP Outlet – 通用 MCP 服务器运行时与沙箱代理

基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*

AI与计算

Chronicle MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的注册与渲染,通过 JSON-RPC 与 AI 客户端进行交互,支持以标准输入输出(StdIO)传输的通信方式,为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

Memo MCP 服务端实现

一个基于 Charm KV 存储的 MCP 服务器实现,提供资源、工具、和提示模板等功能,供对话式 AI 客户端通过 JSON-RPC 与后台进行上下文交互与操作执行。当前实现通过标准输入输出(stdio)传输进行 JSON-RPC 的通信。

AI与计算

ChatGPT App MCP Server (SSE) - Node.js 实现

基于 Model Context Protocol (MCP) 的服务端实现,使用 SSE 传输,提供资源与资源模板的托管、工具注册与执行,以及嵌入式 Widget 的渲染能力,作为 ChatGPT 应用的上下文与功能后端。

AI与计算

YouTube Content Agency MCP 后端集合

基于模型上下文协议(MCP)的后端服务器集合,提供对资源、工具和提示模板的托管与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多种传输方式,适用于为大语言模型(LLM)客户端提供上下文与功能服务的后端架构。仓库内包含 Python 与 TypeScript 实现的多个 MCP 服务器实例及客户端示例,覆盖新闻、YouTube 工具箱、Notion 驱动的框架资源等场景。

AI与计算

Code Guardian MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议接入。

AI与计算

OCTAVE MCP Server

基于 Model Context Protocol(MCP)的后端实现,提供对 OCTAVE 文档协议的标准化上下文服务。通过注册的工具集向 LLM 客户端暴露资源访问、外部功能调用能力,并提供对话上下文的可控渲染能力;使用 JSON-RPC 风格的通信,当前通过标准输入输出(stdio)进行交互,具备会话管理和能力声明等核心能力。

AI与计算

Strudel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,面向 Strudel 音乐助手,提供资源管理、工具执行与提示模板等上下文信息,通过 JSON-RPC 与 LLM 客户端进行交互,并支持基于文件系统的存储与扩展工具集。

AI与计算

ContextStream MCP Server

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,提供资源托管、工具执行、提示模板渲染,以及与大模型客户端的 JSON-RPC 通信,支持会话管理、能力声明和多种传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供安全、可扩展的上下文服务。该仓库不仅包含服务器核心逻辑,还实现了资源、工具、会话初始化、自动上下文注入等关键能力的模块化实现。

AI与计算

Stock Master MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供资源、工具与模板等上下文服务,基于 JSON-RPC 通信,支持会话管理、能力声明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)与客户端对接,面向股票分析与量化交易场景的统一上下文服务框架。

AI与计算

AgentPool MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板的渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明及多传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AI与计算

Trinity MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具、提示以及跨代理协作的标准化上下文服务,支持多传输协议、会话与权限管理、以及多代理系统的编排能力。

AI与计算

Cortex Memory MCP Server

基于模型上下文协议(MCP)的服务器实现,提供内存管理、工具注册/执行和提示模板的后端服务,通过 JSON-RPC 与 LLM 客户端进行通信,支持与各种后端组件协同工作,便于在代理代理的对话系统中提供上下文性与功能性支持。

网页与API

LLM Router

一个支持OpenAI协议和完整MCP服务器功能的智能路由系统,可聚合多个LLM提供商并提供动态工具执行能力

AI与计算

OSVM Unikernel 工具执行器

OSVM Unikernel 工具执行器是一个高性能、安全隔离的后端,专为 LLM 客户端通过 vsock 协议调用 MCP 工具而设计。

AI与计算

ADK MCP天气服务器

ADK框架下的一个MCP服务器示例,通过JSON-RPC协议为LLM客户端提供天气查询工具,实现上下文信息和工具功能的标准化交互。

AI与计算

Galaxy MCP服务器

使AI助手等客户端连接到Galaxy生物信息学平台,提供工具执行、数据管理和工作流集成能力。

AI与计算

AutoA2A:代理服务器生成器

快速将任何AI代理转换为A2A兼容服务器,方便与大型语言模型客户端集成。

AI与计算

Coputo

基于TypeScript和Fastify的MCP服务器框架,快速构建LLM上下文服务后端。

AI与计算

Treelang MCP服务器

Treelang是一个基于抽象语法树(AST)的功能调用框架,同时提供MCP服务器功能,支持通过LLM生成和执行复杂的工具调用工作流。

AI与计算

Super Agent Party

Super Agent Party 是一个将大型模型转化为智能代理的应用后端,支持知识库访问、互联网连接、MCP 服务调用、深度思考和深入研究,并通过 OpenAI API 或 Web/桌面应用进行访问。

开发者工具

Acurast MCP 服务器

基于 Model Context Protocol 构建的 MCP 服务器,提供访问 Acurast 资源的接口,并支持脚本部署和处理器信息查询等工具。

开发者工具

Paragon MCP Server

Paragon MCP Server 是 Model Context Protocol 的服务器实现,通过 Paragon ActionKit 为 LLM 客户端提供 SaaS 应用集成和工具能力。

开发者工具

Shell MCP

基于Bash的轻量级MCP服务器,用于通过JSON-RPC管理和执行命令行工具。

数据库与文件

Hermes Search MCP Server

Hermes Search MCP Server 是一个基于 Model Context Protocol 的后端服务,旨在为 LLM 应用提供强大的数据搜索和索引能力,通过集成 Azure Cognitive Search,实现对结构化和非结构化数据的全文和语义搜索。

开发者工具

MCP实验服务器示例

基于Model Context Protocol的实验性服务器,提供工具注册和执行能力,演示了Stdio和SSE两种传输协议的应用。

数据库与文件

Oracle数据库MCP服务器

一个基于MCP协议的服务器实现,允许LLM客户端通过工具安全地查询和管理Oracle数据库。

AI与计算

MCP多服务器代理系统

基于MCP协议构建的模块化系统,实现LangGraph智能体与远程工具服务器的解耦,支持实时、多服务器和可扩展的AI应用。

AI与计算

humanus.cpp框架

这是一个轻量级的C++框架,用于构建本地LLM Agent,集成了模型上下文协议(MCP),提供工具和记忆管理功能,可作为有效的MCP服务器实现。

商业系统

Directus MCP 服务器

Directus MCP Server 是一个基于 Node.js 的 MCP 服务器,允许 AI 客户端通过 MCP 协议与 Directus CMS 进行交互,实现数据访问和功能调用。

AI与计算

Azure 远程 MCP 函数

基于 Azure 函数和 API 管理构建的远程 MCP 服务器,提供工具注册、执行和安全访问控制能力。

开发者工具

LangChainGo MCP示例服务器

基于Go语言的MCP服务器最小化示例,演示如何通过curl执行工具,并与LangChainGo集成。

AI与计算

Fastn MCP Server

Fastn MCP Server是一个基于MCP协议的后端服务,它允许LLM客户端通过Fastn平台动态注册和执行工具,扩展LLM的功能。

开发者工具

Chef CLI for ADaaS

Chef CLI 是一个用于 ADaaS 配方开发的命令行工具,同时可以作为 MCP 服务器为 LLM 客户端提供上下文服务。

AI与计算

Nerve Agent Server

Nerve Agent Server是一个用于运行LLM Agent并将其功能作为MCP兼容服务对外提供的平台,方便与MCP客户端集成。

AI与计算

Open Multi-Agent Canvas MCP Math Server

一个基于FastMCP框架实现的简单数学工具服务器,用于演示MCP服务器功能,可与Open Multi-Agent Canvas前端集成使用。

生产力应用

MCP Agent Army

基于 Model Context Protocol 的多智能体系统,通过专用 MCP 服务器为各领域智能体提供上下文服务。

数据库与文件

Supabase MCP Server

基于FastMCP框架实现的Supabase MCP服务器,为LLM客户端提供数据库资源访问和管理工具。

AI与计算

MCP Servers

基于.NET开发的MCP服务器集合,提供文件处理、通用工具等功能,支持Stdio和SSE传输协议,为LLM应用提供上下文服务。

开发者工具

Radare2二进制分析MCP服务器

一个基于MCP协议的服务器,集成Radare2强大的二进制分析工具,为AI助手提供文件分析能力。

商业系统

ERPNext MCP Server

连接AI助手与ERPNext的MCP服务器,提供数据访问和功能调用,实现智能ERP集成。

AI与计算

Archon Agenteer MCP Server

Archon Agenteer MCP Server为AI IDE提供 agent 构建能力,支持通过 Model Context Protocol (MCP) 协议与客户端通信,实现agent工具注册、执行和上下文信息管理。

网页与API

Weather MCP Server Example

这是一个基于Model Context Protocol (MCP) 的天气信息服务器示例,演示了如何使用工具提供天气查询功能,并集成了synf工具实现热重载开发。

数据库与文件

MCP-SQL:自然语言SQLite数据库接口示例

演示如何使用MCP协议构建一个允许LLM通过自然语言查询和操作SQLite数据库的MCP服务器。

开发者工具

Minimal MCP天气工具服务器示例 (Kotlin)

一个使用Kotlin编写的最小化MCP服务器示例,演示了如何通过天气工具与MCP客户端进行交互,实现工具注册、调用和响应的基本流程。

网页与API

Deepin MCP 服务器示例

Deepin MCP 仓库包含多个示例 MCP 服务器的 Python 实现,用于演示如何构建提供工具和资源访问能力的 MCP 后端。

AI与计算

Open Manus

Open Manus 是一个开源框架,旨在构建类似 MCP 服务器的功能,为 AI 代理提供工具、资源和 Prompt 管理,提升企业级 AI 应用的上下文处理能力。

桌面与硬件

命令行工具 MCP 服务器

一个 Model Context Protocol (MCP) 服务器,允许大型语言模型 (LLM) 通过调用工具在服务器端执行 shell 命令。

AI与计算

Bhanus:MCP-vLLM集成系统

Bhanus是一个将MCP协议与vLLM集成的生产级系统,旨在高效地为LLM应用提供上下文服务和工具执行能力。

开发者工具

MCP SSE 示例服务器

这是一个使用 Server-Sent Events (SSE) 实现的 MCP 示例服务器,演示了工具、资源和日志记录等核心 MCP 功能。

AI与计算

Agents-EXE

Agents-EXE是一个用于构建和运行LLM代理的工具,通过实验性的MCP服务器将代理作为工具提供给LLM客户端。

网页与API

Kakashi MCP Servers

Kakashi MCP Servers为LLM应用提供天气查询和网页文件下载工具,基于Model Context Protocol标准实现。

AI与计算

MCP Demo Server (Python)

基于FastMCP框架实现的Python MCP服务器示例,提供算术工具和动态问候资源,可通过SSE或Stdio协议与客户端通信。

开发者工具

Test SSE Server

C#实现的MCP协议SSE测试服务器,提供资源、工具和Prompt管理功能,用于验证和测试MCP客户端的连接与交互。

商业系统

Odoo MCP 服务器

通过MCP协议连接AI助手与Odoo ERP系统,提供数据访问和功能调用能力。

AI与计算

MCP服务器示例

一个简单的MCP服务器示例,演示了资源、工具和Prompt模板的定义与使用,支持Stdio和SSE传输协议。

AI与计算

MCP简易示例服务器

一个简单的MCP服务器示例,展示了资源、Prompt和工具管理,支持SSE和Stdio传输。

AI与计算

Panaversity MCP Demo Server

基于FastMCP框架构建的演示MCP服务器,提供资源和工具管理,用于增强LLM应用上下文。

开发者工具

Qt MCP 服务器

Qt MCP 服务器是一个基于 Qt 框架实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具执行和 Prompt 模板处理等核心功能,用于构建模型驱动的应用后端。

开发者工具

示例MCP服务器

基于Model Context Protocol的示例服务器,演示了如何定义和执行工具,并通过Stdio与客户端通信,实现GitHub用户数据获取功能。

网页与API

MCP示例服务集

本仓库提供了一系列基于Model Context Protocol (MCP) 的示例服务器,演示了如何构建可扩展的上下文服务后端,包括文件系统、天气、播客和邮件服务。

商业系统

mcp payment example

基于Model Context Protocol的支付系统示例,演示如何构建可与AI模型集成的应用后端,提供支付处理、欺诈检测和货币汇率等功能。

数据库与文件

MCP Server

该项目是一个MCP服务器示例,用于管理学生数据,通过资源提供学生列表,并通过工具支持学生信息的查询和添加功能。

开发者工具

sample mcp rails

一个简单的Ruby MCP服务器示例,提供基础的问候功能和hello-world资源。

生产力应用

composio mcp server

Composio MCP Server是一个实现了Model Context Protocol的服务器,它将Composio应用(如Gmail, Linear等)的功能以工具形式暴露给LLM,实现LLM对这些应用的标准化访问和控制。

AI与计算

offeryn

Offeryn是一个Rust实现的Model Context Protocol (MCP) 服务器,专注于通过工具扩展大型语言模型的能力,支持JSON-RPC over Stdio和SSE传输协议。

AI与计算

Ai platform

Ai-platform仓库实现了一个基于Model Context Protocol (MCP) 的服务器,通过标准化的JSON-RPC接口,向LLM客户端提供OpenAI的文本生成和代码分析工具。

生产力应用

mcp server template

一个简单的MCP服务器,用于管理文本笔记资源,支持创建笔记工具和笔记总结Prompt。

生产力应用

mcp client and server

一个简单的MCP服务器,用于管理笔记资源,提供笔记总结 Prompt,并提供添加、获取、列出笔记以及管理链式MCP服务器的工具。

开发者工具

isolated commands mcp server

一个简单的MCP服务器示例,演示了工具的注册和调用,提供了一个在隔离环境中执行命令的工具。

生产力应用

test python mcp server

一个简单的Python MCP服务器,用于管理笔记,允许客户端添加、总结和访问笔记资源。

AI与计算

mcp openai

一个简单的计算器MCP服务器示例,用于演示MCP服务器的基本功能,例如工具列表和调用。

桌面与硬件

pylon

Pylon 是一款桌面应用程序,内置 MCP 服务器,为 LLM 客户端提供资源管理、工具调用和 Prompt 模板服务,支持文件系统资源访问和 Ollama 模型集成。

开发者工具

mcp hello

一个简单的MCP服务器示例,演示了如何创建Markdown文件,通过模板和用户输入,展示工具注册和执行。

开发者工具

mcp transport auth

一个简单的MCP服务器实现,演示了基于SSE传输和基本身份验证的工具执行功能。

开发者工具

mcp server

mcp-server仓库实现了一个简单的MCP服务器,通过工具提供推特发文和读取Google Sheets数据的功能,并通过资源暴露Google Sheets数据,演示了MCP协议在数据访问和功能扩展方面的应用。

桌面与硬件

isolated commands mcp server

一个简单的MCP服务器,允许通过工具在隔离环境中执行本地命令。

生产力应用

my mcp claude

一个简单的MCP服务器,提供备忘录管理功能,包括资源化管理备忘录、通过Prompt总结备忘录以及使用工具添加备忘录,旨在与Claude等LLM客户端集成。

AI与计算

goai

GoAI库提供了一个灵活的MCP服务器实现,支持资源管理、工具注册、Prompt模板定义,并通过JSON-RPC协议与LLM客户端通信,构建可扩展的AI应用后端。

AI与计算

Beamlit

Beamlit MCP Gateway桥接Beamlit CLI与LLM客户端,通过Model Context Protocol协议,使AI模型能安全访问和利用Beamlit的功能与资源。

桌面与硬件

Command Executor

Command Executor MCP Server是一个安全的工具服务器,允许LLM客户端执行预先批准的系统命令,用于扩展LLM的功能并与外部环境交互。

AI与计算

Lodestar MCP

Lodestar MCP 是一个基础的MCP服务器实现,用于文档查询,提供了资源和工具的示例,展示了MCP服务器的基本结构和功能。