返回首页

"提示模板" 标签

184 个结果

标签搜索结果

AI与计算

AI Productivity MCP 统一大脑服务器

基于 Model Context Protocol 的本地 MCP 服务器,向本地 AI 客户端提供 9 个系统工具(如获取Last Session Context、路由推荐、效率快照、优化建议等),并通过标准的 JSON-RPC 形式进行资源、工具与 Prompt 的统一访问与渲染。该仓库实现了一个完整的 MCP 服务器端,包含注册工具、处理请求、会话与推送等核心能力。

AI与计算

zhi Model Context Protocol 服务端

基于 Model Context Protocol 的后端服务器,向大型语言模型客户端提供资源管理、工具注册/执行以及可定制的提示模板等上下文服务;通过 JSON-RPC 进行请求/响应,并支持多种传输方式(如标准输入输出、HTTP SSE、WebSocket),实现会话管理与能力声明,面向配置管理场景的强扩展后端。

AI与计算

Cortex-MCP 服务器

基于 Model Context Protocol 的后端服务,实现对资源、工具和 Prompts 的标准化上下文提供,配合 MCP 客户端通过 JSON-RPC 进行交互,支持多传输通道(stdio/HTTP+SSE)并具备会话管理与能力声明能力。

开发者工具

RC Engine MCP 服务器端框架

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、并渲染/提供 Prompt 模板等能力。服务器通过 JSON-RPC 与客户端通信,内置会话管理、能力声明,并支持多种传输协议(如 Stdio、SSE、WebSocket),可在 IDE 中以 MCP 服务器的形式集成,为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Dorothy MCP 服务器集成

基于 Model Context Protocol (MCP) 的多服务端 MCP 实现集合,提供资源管理、工具执行、自动化和 Kanban/Vault 等功能,以便向 LLM 客户端提供统一的上下文服务和能力调用接口。

AI与计算

GitNexus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板的标准化上下文服务,用于向大语言模型客户端提供代码库知识、资源访问、工具执行和提示渲染能力,并通过多种传输协议与客户端进行交互。

AI与计算

Cognithor MCP 服务器

基于 Cognithor 的 Model Context Protocol (MCP) 服务器实现,提供资源(Resources)托管与管理、Tool(工具)注册与执行,以及 Prompt 模板的定义与渲染等能力;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备多传输通道(如 StdIO、SSE、WebSocket)的可扩展上下文服务框架。}

AI与计算

Atmosphere MCP 服务端

基于 Atmosphere 框架实现的 Model Context Protocol(MCP)服务器。该服务端承担资源管理、工具注册与执行、以及 Prompt 模板的渲染等核心 MCP 功能,并通过 JSON-RPC 与 LLM 客户端通信,提供安全、可扩展的上下文服务框架,同时支持多传输协议(WebSocket、SSE、Long-Polling 等)以适配不同场景。

AI与计算

PePeRS MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大语言模型客户端提供统一的资源访问、工具调用和提示模板渲染能力;通过 JSON-RPC/HTTP+SSE 等协议与客户端通信,支持多传输协议、会话管理与能力声明,便于将上下文、工具和提示模板整合到 LLM 工作流中。

AI与计算

NexusCode MCP Knowledge Server

基于 Model Context Protocol (MCP) 的后端服务,向多种 LLM 客户端暴露可索引的资源、可执行的工具,以及可渲染的 Prompt 模板,提供标准化的 JSON-RPC/SSE/WebSocket 交互,用于资源访问、工具调用和上下文模板渲染,并支持会话管理与安全认证以服务化地为代码库提供上下文和功能服务。

AI与计算

Khoregos 模型上下文服务端

基于 Model Context Protocol 的后端实现,为大型语言模型客户端提供规范化的上下文资源、工具执行和提示渲染能力,支持与客户端通过 JSON-RPC 通信并实现会话、能力声明与多传输适配的后端服务。

AI与计算

MemberJunction MCPServer

基于 Model Context Protocol (MCP) 的后端服务器实现,用以向 MCP 客户端提供资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的扩展能力(如 StdIO、SSE、WebSocket)。

AI与计算

CLEO MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供上下文、资源、工具和提示模板等能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,实现对资源、工具与提示的托管与渲染。

AI与计算

Renfield MCP 后端服务器

基于 Model Context Protocol (MCP) 的自托管后端,提供资源管理、工具注册与执行,以及 Prompt 模板定义与渲染,并通过 JSON-RPC/REST 与 LLM 客户端进行标准化的上下文提供与功能调用。系统支持会话管理、能力声明,并可通过多种传输协议与扩展插件扩展以服务多种 MCP 客户端场景。

AI与计算

Minion Toolkit MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 Claude Code 客户端提供资源、工具与提示模板等上下文服务,支持资源管理、工具注册与执行、提示渲染,以及面向 LLM 的任务编排、成本估算、集成报告等功能,帮助实现可扩展、安全的上下文服务框架。

AI与计算

AgenC Architecture Docs MCP 服务器

基于模型上下文协议(MCP)的 AgenC 文档服务端,实现将架构文档以资源形式托管、注册可执行工具、提供可渲染的提示模板,并通过 MCP 服务器对外以标准化的 JSON-RPC 方式与客户端交互,为 LLM 客户端提供文档查询与上下文能力。该服务器属于对外提供上下文与工具的后端组件。<br/>核心能力包括:资源托管与数据访问、工具注册与执行、Prompt 模板定义与渲染,以及通过多传输协议(如 STDIO)实现的 MCP 通信。>

开发者工具

Agentic MCP 服务器

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供资源管理、工具执行与提示模板渲染等能力,支持 JSON-RPC 通信和多传输协议(如 stdio、SSE、WebSocket),实现对会话、能力声明及可扩展上下文服务的统一管理。

AI与计算

CorvidAgent MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,并通过 JSON-RPC 及 WebSocket/HTTP 等传输向 LLM 客户端暴露上下文与能力。该仓库实现了服务器端的完整 MCP 体系,包含工具箱、资源、提示模板等核心组成部分,以及用于与 MCP 客户端进行通信的路由与路由器。

AI与计算

Gleann MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,并通过 JSON-RPC 与客户端通信,内置以 stdin/stdout 形式的传输支持,便于在本地编辑器与 LLM 客户端中集成使用。

AI与计算

spanner-mycli MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信;实现会话管理、能力声明,并支持多种传输方式,作为面向大语言模型的上下文服务框架。

开发者工具

Margin MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册/执行、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,用于向本地应用数据、功能和交互模板提供统一上下文服务。

AI与计算

Adjutant MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板等能力,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多传输通道(SSE、WebSocket、标准输入输出等)与会话管理。

AI与计算

OpenPencil MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具与提示模板的标准化访问与执行能力,支持 JSON-RPC 通信、会话管理以及多传输协议(如 Stdio、HTTP、SSE、WebSocket),用于与 LLM 客户端构建安全、可扩展的上下文服务后端。

AI与计算

Kahunas MCP 服务器实现

基于 Model Context Protocol (MCP) 的 Kahunas 服务端实现,将 Kahunas API 功能以 MCP 工具的形式暴露给大模型客户端,支持资源管理、工具执行、提示模板渲染等上下文服务,提供 stdio、HTTP/SSE、streamable-http 等传输方式,并通过 JSON-RPC 进行通信与会话管理。

AI与计算

OpenFang MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管与访问、工具注册与执行、以及提示模板的定义与渲染,支持 JSON-RPC 通信和多传输适配的上下文服务框架。

AI与计算

srchd MCP 服务器实现与管理平台

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,设计用于通过 JSON-RPC 与 LLM 客户端进行标准化的上下文服务、工具调用与提示渲染等交互。

AI与计算

SecureYeoman MCP 服务器

基于 Model Context Protocol 的企业级 MCP 服务器实现,向 LLM 客户端提供资源、工具和提示等上下文信息,通过 JSON-RPC 进行通信,支持多传输通道(stdio、SSE、WebSocket)以实现高效的上下文服务。该仓库内包含完整的 MCP 服务器实现及相关 API、传输、会话与安全机制等模块。

AI与计算

AFS MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Resources、Tools 与 Prompts 的标准化管理与访问,并通过 JSON-RPC 与客户端进行通信,支持多传输方式以提供安全、可扩展的上下文服务。

开发者工具

XC-MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端通过 JSON-RPC 提供统一的上下文信息与功能。该服务器聚合 Xcode 构建、模拟器、资源缓存、持久化等资源与工具、提示模板的访问、执行与渲染,支持会话管理与能力声明,默认通过 STDIO 传输进行通信,便于在对话式 AI 应用中嵌入与扩展。

开发者工具

Harness MCP Server 2.0

基于 Model Context Protocol 的后端服务器实现,通过 JSON-RPC 规范向 LLM 客户端提供 Harness 平台的资源、工具与提示模板等上下文服务,支持多传输协议与会话管理,具备完整的工具注册、资源注册与提示模板渲染能力。

AI与计算

Sellf MCP 服务器( Claude Desktop 版本)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 定义与渲染,并通过 JSON-RPC 与客户端通信,支持多种传输协议,用以向 LLM 客户端提供一致的上下文与功能。若干资源、工具和提示可通过 MCP 服务器集中管理与渲染,适用于 Claude Desktop 等集成场景。

AI与计算

Software Factory MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行、Prompt 模板渲染等核心 MCP 功能,供 LLM 客户端通过 JSON-RPC 进行资源访问、工具调用与提示渲染等操作。

AI与计算

Atlas MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多传输协议(如 Stdio、SSE、WebSocket)。

AI与计算

Foundry Docs MCP Server

基于模型上下文协议(MCP)的后端服务器,为大语言模型客户端提供 Foundry 文档的上下文、检索、工具执行和 Prompt 渲染等能力,并通过 JSON-RPC 与客户端进行通信,实现资源管理、工具注册/执行和 Prompt 定义的标准化后端服务。

AI与计算

CodeGraphContext MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行以及可渲染的 Prompt 模板,旨在以标准化的 JSON-RPC 方式向 AI 客户端提供代码上下文与功能支持,并可通过多种传输协议与会话管理实现安全、可扩展的 MCP 服务。

AI与计算

dartwork-mpl 模型上下文协议服务端

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器,向大模型客户端以标准化方式提供上下文信息与功能。核心能力包括托管与管理资源、注册并执行工具、定义与渲染提示模板;通过 JSON-RPC 实现与客户端的通信,支持会话管理与多传输通道(如 StdIO、SSE、WebSocket),并提供安全、可扩展的上下文服务。

网页与API

Browser Bridge MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,作为后端服务向 LLM 客户端提供标准化的上下文信息与功能。核心职责包括托管与管理 资源(Resource)、注册与执行 工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 MCP 规范的协议与客户端进行 JSON-RPC 风格的请求/响应交互,支持会话管理、能力声明,以及对接 Core/扩展组件的桥接能力。

AI与计算

Agoragentic MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,向 MCP 客户端提供 Agoragentic 市场的能力、资源、提示等上下文服务与执行能力,并通过 JSON-RPC 与客户端通信。

开发者工具

GoPeak-Godot-MCP 服务器端实现

基于 Model Context Protocol (MCP) 的 Godot 项目后端服务器,实现资源、工具、Prompts 等 MCP 核心能力,并通过 JSON-RPC 与客户端进行通信,提供会话管理、能力声明、工具执行与数据渲染等功能。

网页与API

JamJet MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行,以及提示模板渲染,并通过 JSON-RPC 与客户端进行标准化交互。

AI与计算

RuVector MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 RuVector 生态的一部分,负责通过标准化的 JSON-RPC 向 LLM 客户端提供上下文信息和功能。核心职责包括托管与管理 Resources(资源数据访问)、注册并执行 Tools(工具调用)、定义与渲染 Prompts(提示模板),并支持多传输协议(如 Stdio、SSE、WebSocket)。服务器端负责会话管理、能力声明与扩展性配置,适配多种客户端场景,提供安全、可扩展的上下文服务框架,支持与 RuVector 其他组件的无缝对接。

AI与计算

Mind 模型上下文服务端

基于 Model Context Protocol (MCP) 的后端实现,用于向大语言模型客户端以标准化方式提供资源、工具、提示模板等上下文及功能,并通过 JSON-RPC 进行通信,支持 STDIO 与 HTTP 传输模式以及多种会话管理能力。

网页与API

OpenFang MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现:提供资源托管、工具注册/执行、以及提示模板的定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行标准化上下文服务交互(资源访问、工具调用、Prompts 获取/渲染等),支持多传输协议以实现安全、可扩展的上下文服务框架。

开发者工具

pūrmemo MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、及 Prompt 模板渲染,通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明与多传输协议(如 STDIO、SSE、WebSocket)的上下文服务框架。

AI与计算

Deep Research MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,暴露 Deep ResearchAgent 的研究、澄清(clarification)流程及任务状态查询等能力,支持多种后端提供商、两种传输模式(stdio 与 HTTP 流式传输),通过 JSON-RPC 风格的 MCP 客户端进行交互。

网页与API

maintenant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,实现资源(Resources)、工具(Tools)和提示模板(Prompts)的管理与渲染,提供标准化的 JSON-RPC 交互给 LLM 客户端,并支持多种传输方式(stdio、Streamable HTTP、SSE/WebSocket 等)以及 OAuth2 安全认证,是一个面向 MCP 客户端的后端服务实现。

AI与计算

EGOS MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,作为后端上下文服务中枢,托管资源、注册并执行工具、渲染可自定义的 Prompt 模板,并通过 JSON-RPC 提供统一的上下文服务接口给 LLM 客户端。

AI与计算

Liza MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端以标准化方式提供资源数据、可注册与调用的工具,以及可渲染的 Prompt 模板;通过 JSON-RPC 进行通信,支持会话管理、能力声明与多传输协议(如 StdIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

20x MCP 服务器后端实现

基于 Model Context Protocol 的桌面后端实现,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 在本地与远程客户端通信;包含会话管理、能力声明以及对多传输协议的支持,便于在本地环境下为 LLM 客户端提供结构化上下文与外部功能调用能力。

网页与API

ProxyWhirl MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,作为后端服务向 LLM 客户端暴露资源、工具和提示模板等上下文信息,通过 JSON-RPC 提供资源访问、工具执行和提示渲染能力,支持会话管理与多传输协议的扩展能力。

AI与计算

Koryphaios MCP后端服务器

基于 Model Context Protocol(MCP)的后端服务器,向大型语言模型客户端提供标准化的资源、工具与提示模板,并通过JSON-RPC进行交互;具备会话管理、能力声明、多传输协议支持(如 StdIO、SSE、WebSocket)以及安全可扩展的上下文服务框架。

AI与计算

PePeRS MCP Server

PePeRS MCP Server 是基于 Model Context Protocol (MCP) 的后端实现,面向 LLM 客户端提供标准化的上下文服务,包括资源管理、工具注册/执行以及可渲染的 Prompt 模板,通过 JSON-RPC/HTTP+SSE 等传输与客户端进行通信,支持多种传输协议与会话管理,是面向学术领域大模型应用的上下文服务框架。

AI与计算

TuitBot MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端以标准化的 JSON-RPC 形式提供资源管理、工具执行以及提示模板等能力,支持多运行配置(Profile),并通过 stdio 传输与客户端进行交互。该实现包含服务端核心逻辑、工具清单、工厂化的适配器以及对各运行档案的支持,属于完整的服务器端实现而非仅仅示例。

网页与API

Bluesky Community Feed MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,统一管理资源、注册并执行工具、定义并渲染提示模板,并通过 JSON-RPC 与 LLM 客户端进行通信,提供可扩展的上下文服务与多传输协议支持。

AI与计算

SageFs MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,使用 JSON-RPC 进行通信,支持多会话和热重载能力,并通过 SSE/HTTP 等传输方式向 LLM 客户端暴露上下文服务。

AI与计算

Stigmer MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端以标准化方式提供资源管理、工具注册与执行以及 Prompt 模板渲染等上下文服务,支持通过 gRPC/JSON-RPC 与前端/IDE 等工具进行高效、安全的交互。项目包含用于生成与集成 MCP 输入输出的代码、以及面向资源类型的 API 框架与网关组件,定位为后端服务端实现。

AI与计算

Proletariat MCP Server

基于 Model Context Protocol 的后端服务器,提供资源管理、工具注册/执行和提示模板渲染的标准化服务,采用 JSON-RPC 与 LLM 客户端通信,支持多传输协议并具备会话管理与能力声明能力。

AI与计算

Instar MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)注册与执行,以及 Prompts 的定义与渲染,向 LLM 客户端以标准化方式暴露上下文与功能,并通过 JSON-RPC/HTTP 等协议进行通信,支持会话管理与多种传输途径,致力于为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

aidaemon MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,提供资源(Resources)托管、工具(Tools)注册/执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 LLM 客户端进行标准化上下文服务交互,并支持会话管理与跨传输协议的通信能力。

开发者工具

XcodeBuildMCP

基于 Model Context Protocol(MCP)的后端实现,作为后端服务器向大型语言模型客户端提供资源、工具执行能力与提示模板等上下文服务,支持会话管理、能力声明及多传输协议(如标准输入输出、SSE、WebSocket)等特性,适用于在 iOS/macOS/Xcode 项目中作为代理服务的后端服务器。

AI与计算

Dexscreener MCP Server Tool

基于模型上下文协议(MCP)的后端服务器,提供资源、工具与提示模板等标准化上下文服务,支持以 JSON-RPC 形式与 AI 代理进行交互,便于在不同代理中进行上下文获取、工具调用与提示渲染。

AI与计算

Forge MCP Server

基于 Forge 项目实现的 Model Context Protocol (MCP) 服务器,提供资源、工具与提示等上下文服务,通过 JSON-RPC 方式与 MCP 客户端通信,支持以 STDIO 等传输协议接入,便于将 LLM 调用外部功能、访问数据资源并渲染自定义提示模板等能力。

开发者工具

ai-rulez MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具注册与提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持标准化的资源、工具与提示渲染管理。

AI与计算

Kastell MCP 服务端

基于 Model Context Protocol 的后端实现,为 MCP 客户端提供统一的上下文资源、工具执行和 Prompt 渲染能力,采用 JSON-RPC 形式对外提供服务,支持多传输协议,具备会话管理和能力声明等特性,适合作为 LLM 客户端的上下文与功能服务端。

网页与API

Software Factory MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供标准化的上下文服务:托管资源、注册与执行工具、定义与渲染 prompts,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 SSE、WebSocket、StdIO)以实现安全、可扩展的上下文服务框架。仓库中已有大量 MCP 相关模块和对接实现,能够与客户端协同提供资源、工具与提示等能力。对接示例包括通过 llm_client 与 MCP 平台服务器进行交互以及对 MCP 服务的自检与自动重启等能力。

商业系统

FluentCart MCP 服务器端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的注册、管理与执行,允许通过 JSON-RPC 与任意 LLM 客户端进行上下文信息服务与外部功能调用,并支持多种传输方式与会话能力声明。

AI与计算

The New Fuse MCP Server

基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持通过 JSON-RPC 与 MCP 客户端通信,具备对会话、能力声明与多传输协议的支持,属于一个完整的 MCP 服务器实现(含服务器端核心、工具暴露与网络化 MCP 传输适配)。

AI与计算

CCOS-MCP 服务端

基于 CCOS 的 MCP 服务器实现,提供资源管理、工具注册/执行、以及基于 Prompts 的导航与渲染能力,支持通过 JSON-RPC 与 LLM 客户端进行资源读取、工具调用和提示模板获取等标准化上下文服务。

AI与计算

NatShell MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供标准化的资源、工具和提示(Prompts)上下文服务,通过 JSON-RPC 与客户端通信,支持资源管理、工具注册/执行以及提示渲染等核心能力。实现中包含对工具注册、资源列举、资源读取、工具执行等 MCP 核心操作的处理逻辑,并提供了可运行的 MCP 服务入口。

AI与计算

Animus MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,用于以标准化的 JSON-RPC 方式向 LLM 客户端提供上下文资源、工具能力与提示模板;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket),以实现对资源、工具和提示的统一托管与渲染,辅助构建安全、可扩展的 MCP 服务端上下文服务。

AI与计算

Claude Terminal MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,嵌入在 Claude Terminal 桌面应用中,提供资源、工具、提示模板等 MCP 组件给 LLM 客户端,通过 JSON-RPC 进行通信,并支持会话管理、能力声明与插件化注册表功能。

AI与计算

Poiesis MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具与提示的统一注册、管理与访问,通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多模块扩展和 Bearer Token 认证。

AI与计算

LEMON MCP 服务器桥接

LEMON 是一个面向临床决策工作流的全栈后端,仓库中包含一个 MCP 服务器桥接实现。该桥接通过 JSON-RPC 提供模型上下文服务,核心职责包括托管资源、注册与执行工具、定义与渲染提示模板,并支持多种传输协议(如标准 I/O、Server-Sent Events、WebSocket)。通过 MCP 桥接,客户端可以读取资源、调用工具、获取并渲染提示模板等,以实现对 LLM 的统一上下文服务与扩展能力。仓库提供 MCP 服务器入口脚本 run_mcp.py,以及 Bridge 实现模块,形成一个可运行的服务器端 MCP 实现。

AI与计算

CCC MCP 服务端实现

基于 Model Context Protocol(MCP)的后端服务实现,集成到 CCC(Claude Code Launcher)中,用于托管资源、注册与执行工具,以及定义与渲染提示模板。通过内联(Inline)MCP 与 Claude Code 的虚拟文件系统(VFS)进行 JSON-RPC 通信,支持多层配置体系(全局/预设/项目)以及插件扩展,目标是为大型语言模型客户端提供标准化的上下文服务与外部功能调用能力。

网页与API

OSS Autopilot MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式暴露资源、注册工具并提供提示模板,支持 stdio 与 HTTP 流式传输,便于在本地搭建可扩展的上下文服务。

AI与计算

Libra MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Libra 项目的一部分,向 LLM 客户端以标准化方式提供上下文信息与能力:托管并管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端进行通信,支持多种传输通道(如 Stdio、SSE、WebSocket),实现会话管理与能力声明,便于 AI 场景下的上下文服务与功能扩展。

AI与计算

HPD-MCP-Server-Framework

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供资源、工具与可渲染的提示模板,并通过 JSON-RPC 进行通信,支持通过 MCP.json 配置或代码属性进行注册与启动,具备会话管理、能力声明与多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。

AI与计算

Keep MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器实现,聚焦向 LLM 客户端以标准化方式提供上下文资源、可执行工具、以及可定制的 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明并提供多传输协议(如 Stdio、SSE、WebSocket),实现资源托管、工具注册与执行、以及 Prompts 的定义与渲染,旨在为 AI 代理/应用提供安全、可扩展的上下文服务框架。

网页与API

Huly MCP服务器

基于 Model Context Protocol 的后端服务器实现,提供资源、工具与提示模板的统一上下文服务,支持多传输协议(stdio、HTTP 等)并通过 JSON-RPC 与 LLM 客户端通信,适用于 Huly 集成场景。

AI与计算

Distributed Claude Code MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的统一管理与对外服务,作为 LLM 客户端的上下文与能力提供端,并通过远程守护进程实现任务编排、状态管理与多前端接入。系统通过 JSON-RPC/工具调用等机制与客户端对话,支持路由、会话管理以及多传输通道(Web、SSE、StdIO 等)协作。}

AI与计算

Maiat MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、Prompt 模板等上下文信息的注册、管理与对外服务,通过 JSON-RPC 与 MCP 客户端通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,面向 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

VibesRails MCP 服务器

基于模型上下文协议(MCP)的后端实现,作为 MCP 服务器向 LLM 客户端提供上下文信息、资源与工具,并支持提示模板的渲染与执行。通过 JSON-RPC 与客户端通信,提供资源读取、工具调用、Prompt 获取等能力,支持会话管理、能力声明以及多传输协议(如 stdio)的扩展性上下文服务框架。

网页与API

LibScope MCP Server

基于 Model Context Protocol (MCP) 的本地知识库后端服务器,提供资源管理、工具注册与调用、提示模板渲染等能力,并通过 JSON-RPC 与 MCP 客户端通信,支持多种传输协议以便与大语言模型进行安全、可扩展的上下文服务交互。

AI与计算

CrestApps.OrchardCore MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义和渲染等功能,通过 JSON-RPC 与 LLM 客户端进行上下文信息和能力的交互,同时支持多种传输协议以实现安全、可扩展的上下文服务框架。

AI与计算

FrankenTerm MCP 服务器

基于 ft 的 MCP 后端实现,通过标准的 JSON-RPC 向 LLM 客户端提供 Resources、Tools、Prompts 等上下文信息与功能,以及会话与能力管理,支持多传输协议(如 StdIO/SSE/WebSocket),以实现面向大语言模型的上下文服务后端。

AI与计算

Margin MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具执行以及提示模板的标准化上下文服务,供 LLM 客户端通过 JSON-RPC 进行数据访问、功能调用和提示渲染,并通过 stdio 等传输协议与 Claude Desktop 等客户端协同工作。

开发者工具

CLEO MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与数据访问、工具(Tools)的注册与执行、以及提示模板(Prompts)的定义与渲染;通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明与多传输通道,构建面向LLM应用的可扩展上下文服务框架。

AI与计算

Autonomous MCP 后端服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供标准化的上下文资源、工具注册与执行能力,以及可定制的 Prompt 模板渲染;通过 JSON-RPC 进行通信,包含会话管理、能力声明,且支持多种传输协议(如 STDIO、SSE、WebSocket),为代码基地级别的上下文服务提供端到端的后端能力。

开发者工具

Yuque MCP 服务器

基于 Model Context Protocol 的后端服务器,为大语言模型客户端提供 Yuque 知识库的资源、工具与提示模板,并通过 JSON-RPC 支持多传输协议(如 stdio、HTTP),实现会话管理与能力声明。

AI与计算

Nevermined Payments MCP 服务器

基于 Nevermined Payments 的 MCP 服务器实现,为大型语言模型客户端提供资源、工具、提示等上下文能力的标准化服务。通过 JSON-RPC 与客户端通信,处理请求/响应,包含会话管理、能力声明,并支持多种传输方式与安全认证机制,便于搭建安全、可扩展的上下文服务平台。

AI与计算

Brain Dump MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板等统一注册、执行与渲染能力,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议扩展,作为 LLM 客户端的上下文服务与功能入口。

AI与计算

PDF Oxide MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供对 Resources、Tools 和 Prompts 的标准化托管与交互,客户端通过 JSON-RPC 与服务器通信,支持会话管理、能力声明,以及多种传输协议扩展。仍需配合仓库中的客户端进行使用。

开发者工具

OmnySys MCP 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行、以及可渲染的提示模板,面向大型语言模型(LLM)客户端以标准化方式提供上下文信息和功能。

AI与计算

Codescout MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、提示模板渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(stdio、HTTP/SSE),用于为 LLM 提供 IDE 级代码上下文与能力。

AI与计算

oh-my-claudecode

基于 MCP(Model Context Protocol)的后端服务体系,面向 Claude Code 等 LLM 客户端提供标准化的上下文资源、工具执行与提示模板管理,并通过 JSON-RPC 进行通信,支持多种传输通道与会话能力。

AI与计算

Paseo MCP服务器实现

基于 Model Context Protocol(MCP)的后端服务实现,作为LMM客户端的上下文与能力提供者:承载并管理资源、注册与执行工具、定义与渲染 Prompt 模板;通过 JSON-RPC 在多种传输通道(如 WebSocket/Stdio/SSE 等)上与客户端通信,实现会话管理、能力声明与安全扩展的上下文服务框架。

AI与计算

Crypto Vision MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,作为 LLM 客户端的上下文与能力服务中心,提供资源管理、工具注册与执行,以及 Prompt 模板的定义与渲染。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)实现灵活的上下文服务与扩展能力。

AI与计算

Cortex MCP 服务器端(Memory Bank 上下文管理服务器)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的渲染与渲染管理,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的扩展,以为大语言模型客户端提供结构化的上下文与功能服务。

AI与计算

CodingBuddy MCP 服务器

基于 Model Context Protocol 的后端服务器实现,用于以标准化方式向 LLM 客户端提供上下文信息与功能:托管资源、注册与执行工具、定义与渲染 Prompt 模板,且通过 JSON-RPC 与客户端通信,支持多种传输协议并具备会话管理能力。

AI与计算

Ember MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Ember 记忆资源、工具与提示模板的标准化管理与访问,并通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明以及多传输协议接入,面向 LLM 客户端提供可扩展的上下文服务框架。

AI与计算

MemoryLayer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理和多传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

Codex Orchestrator MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与数据访问、工具注册与执行、以及提示模板渲染等 MCP 核心能力,并通过 JSON-RPC 与 LLM 客户端进行通信;包含委派服务器等 MCP 服务入口,支持基于 stdio 的服务以及可扩展的传输协议。该仓库实现了 MCP 服务器端逻辑与启动集成,能够为 LLM 客户端提供上下文服务、工具执行能力以及可渲染的 Prompt 模板。

AI与计算

Quorum MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现;将 Quorum 的多AI协同推理能力以标准化的 JSON-RPC 服务形式暴露给 MCP 客户端,支持资源/工具/提示模板的管理与渲染,并通过标准化接口与客户端进行通信。

AI与计算

ABI MCP 服务器框架

基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供统一的资源管理、工具注册与调用,以及可定制的 Prompt 渲染能力;通过 JSON-RPC 2.0 进行通信,支持多种传输协议(如 stdio、SSE、WebSocket),以实现安全、可扩展的上下文服务。

网页与API

zkmin MCP 服务器实现

基于 zkmin 的 MCP 服务器实现,提供资源、工具与提示模板的托管与渲染;通过 JSON-RPC 与客户端通信,支持 HTTP/SSE 传输,用于向大语言模型客户端提供可上下文化的后端能力与交互功能。

AI与计算

Eng Platform MCP 服务器集成

基于 Model Context Protocol 的后端服务器集合,提供资源、工具和提示模板的标准化上下文服务;通过 JSON-RPC 与 LLM 客户端通信,支持多传输模式(SSE、stdio、HTTP),并包含多种领域的 MCP 服务实现(资源管理、分析、报告撰写、团队分析等)。

AI与计算

Crew MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,向 LLM 客户端通过标准化的JSON-RPC提供资源、工具和提示模板,并支持多传输协议(stdio/SSE/HTTP),实现会话管理与能力声明,便于上下文信息的安全、可扩展加载与调用。

AI与计算

RestFlow MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大语言模型客户端提供资源、工具和提示模板等上下文信息,并通过 JSON-RPC 进行请求/响应交互,作为 RestFlow 的 MCP 服务端核心能力之一。

AI与计算

OASTools MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,将资源、工具与提示模板以标准化的 MCP 服务器形式提供给 LLM 客户端,通过 JSON-RPC 进行交互,支持多种传输通道(如 STDIO、SSE、WebSocket),实现会话管理、能力宣告与可扩展上下文服务。

开发者工具

Hack MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端以标准化方式提供上下文资源、可调用工具、以及可定制的提示模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理与多种传输协议(如 STDIO、SSE、WebSocket),实现资源/工具/提示的托管、注册与渲染,面向本地开发环境的可扩展上下文服务。

开发者工具

mcp-use

基于 Model Context Protocol (MCP) 的完整 MCP 服务端框架与生态系统,提供可扩展的 MCP 服务器实现、资源与工具托管、提示模板渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,适用于搭建支持 LLM 的上下文服务后端。

AI与计算

MCP 后端服务示例:资源与工具协同服务器

基于模型上下文协议(MCP)的后端服务器实现,提供本地资源管理、外部工具调用和提示渲染,支持与LLM客户端通过JSON-RPC进行交互,具备SQLite持久化与外部天气API查询等功能。

AI与计算

AgentMux MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端进行交互,支撑多传输协议的上下文服务与安全扩展能力。

AI与计算

LandingAI ADE MCP 服务器(TypeScript实现)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理以及 JSON-RPC 通信,支持标准化的上下文服务与多传输协议。

AI与计算

Google Cloud DevOps MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,向大语言模型(LLM)客户端提供标准化的上下文服务,包括资源(Resources)的管理、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议(如 STDIO、SSE、WebSocket)的扩展能力。

AI与计算

Zuraffa MCP 服务器

基于模型上下文协议(MCP)的后端服务,向大型语言模型客户端提供资源、工具和提示模板的上下文能力,通过 JSON-RPC 的方式进行请求/响应,并支持多种传输协议(如 STDIO、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

网页与API

Avanza MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Avanza 公共市场数据的资源、工具与提示模板,通过 JSON-RPC 与 LLM 客户端交互,支持资源管理、工具注册与提示渲染,便于构建可扩展的上下文服务。

AI与计算

Temple Vault MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具、提示模板等核心接口,使用 JSON-RPC 与客户端通信,向 LLM 客户端提供资源访问、工具调用与提示渲染能力,并支持多种传输协议(stdio、SSE、streamable-http 等)。

AI与计算

Claude-Mem MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册/执行、Prompt 定义与渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理与多传输协议,作为 LLM 应用的上下文服务后端。

AI与计算

MeMesh

基于 Model Context Protocol (MCP) 的后端服务器(MeMesh,原 Claude Code Buddy),为大语言模型客户端提供记忆化上下文、资源管理、工具执行与可定制的 Prompt 模板渲染,支持 JSON-RPC 通信、会话管理以及多传输协议(如 Stdio、SSE、WebSocket)。

开发者工具

Omen MCP 服务器端

基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端暴露资源、工具以及 Prompt 模板等分析能力,支持多种传输方式并提供会话与能力声明等 MCP 核心功能。

AI与计算

AtomCLI MCP 服务器

基于 AtomCLI 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端以标准化方式提供资源、工具、提示模版与会话管理等上下文能力,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与灵活的配置扩展。

AI与计算

Ark UI MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,向 MCP 客户端提供资源、工具和提示模板等上下文能力,支持通过 JSON-RPC 与客户端通信,并可通过多种传输方式(stdio、SSE/HTTP)进行交互。

AI与计算

Tools 模型上下文协议(MCP)服务器端实现

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,面向大语言模型(LLM)客户端提供标准化的上下文服务。

AI与计算

Ouroboros MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及可渲染的提示模板,通过 JSON-RPC 与客户端进行通信,并支持多传输协议(如 STDIO、SSE、WebSocket),为大语言模型应用提供可扩展的上下文服务框架。

AI与计算

Dooray MCP Server

基于 Model Context Protocol (MCP) 的 Dooray MCP 服务器实现,向大型语言模型客户端以标准化方式提供上下文信息与功能。核心能力包括托管与管理资源(Resources)、注册并执行工具(Tools)、定义与渲染提示模板(Prompts),并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。

AI与计算

ShipUI MCP 服务端

基于 Model Context Protocol (MCP) 的 ShipUI 后端实现,提供资源托管、工具注册与执行、以及提示模板的 MCP 服务端,能通过 JSON-RPC 与各类 MCP 客户端通信,支持标准的会话管理与多传输通道(如标准输入输出)。

AI与计算

Fulcrum MCP 服务器实现

基于 Model Context Protocol 的 MCP 后端实现,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 与客户端进行交互,具备会话管理与多传输通道支持,适用于向大语言模型客户端提供结构化上下文与外部功能入口。

AI与计算

Minds AI MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具和提示模板的标准化管理与对外接口,支持 HTTP 与 STDIO 等传输模式,面向大语言模型客户端的上下文服务。

AI与计算

Mira MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具调用与提示模板渲染的标准化上下文服务,并通过 JSON-RPC 与 Claude Code 等客户端交互,支持可扩展的传输模式与会话管理。

开发者工具

mockd MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器,实现对资源、工具和提示模板的统一管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议以适配不同应用场景。

AI与计算

Valence MCP 服务器端

基于 Model Context Protocol (MCP) 的后端实现,作为 LLM 客户端的上下文服务提供者,托管与管理 Resources(资源)、Tools(工具)以及 Prompts(提示模板),并通过 JSON-RPC 与客户端进行请求/响应通信,支持多传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

网页与API

f5xc-api-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与提示模板渲染等能力,供 LLM 客户端以标准化方式获取上下文信息和外部功能访问。

AI与计算

Rossum MCP Server 与 Agent

基于 Model Context Protocol 的后端服务,提供资源管理、工具注册/调用以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,并集成 Rossum API 提供安全、可扩展的上下文服务。

AI与计算

Abathur Swarm MCP服务器

基于 Model Context Protocol (MCP) 的后端实现,围绕资源管理、工具注册/执行和提示模板渲染,提供通过 JSON-RPC 与 LLM 客户端通信的服务器能力,并在内置组件之间暴露资源、工具、提示等接口,支持多种传输方式与会话管理。该仓库包含用于 Memory/Task/A2A/Events 的 MCP 相关服务端实现以及一个用于启动 MCP 服务器的命令行接口。

AI与计算

CTX MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具与提示模板的托管、注册与渲染,支持基于 JSON-RPC 的通信、会话管理以及多种传输协议(如 STDIO、HTTP、SSE)以供 LLM 客户端调用。

AI与计算

Plan Cascade MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Plan Cascade 的 MCP 服务端,向 LLM 客户端提供标准化的资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 进行请求/响应通信,支持多传输协议、会话管理与能力声明,确保安全、可扩展的上下文服务。

AI与计算

Argus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端提供资源管理、工具注册/执行以及提示模板渲染等标准化上下文服务,支持多传输协议并实现会话与能力声明等 MCP 核心能力。仓库中包含用于集成 LispLang LangGraph 与 Playwright 的 MCP 服务实现、以及与 Argus E2E 测试引擎的对接插件。

AI与计算

Conscious Bot MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,作为 LLM 客户端的标准化上下文服务入口,提供资源托管、工具注册/执行、提示模板定义与渲染等能力,并通过 JSON-RPC 与前端/其他组件进行通信,支持嵌入式部署与回退模式,便于实现可扩展的上下文服务框架。

AI与计算

Poe Code MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板的托管与管理,以及通过 JSON-RPC 与客户端进行通信,支持多传输通道,供大语言模型应用安全、可扩展地获取上下文与外部功能。

AI与计算

SkillLite MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,负责向 LLM 客户端以标准化格式提供技能资源、工具注册与执行、以及 Prompt 模板的渲染,支持会话管理、能力声明,并通过 JSON-RPC 与客户端进行通信,具备沙箱化执行、工具调用以及多传输协议的能力。该实现包含服务器端逻辑、工具/技能管理、以及对外暴露的 MCP 接口,属于服务器端实现而非仅仅的客户端示例。

AI与计算

Tweek MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与管理、工具注册与执行、以及 Prompt 模板渲染等核心功能,能够通过 JSON-RPC 与 LLM 客户端进行上下文信息与功能的标准化交互。服务器端负责会话管理、能力声明与多传输通道支持(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

MCP Vector Search 服务器端

基于 Model Context Protocol (MCP) 的后端服务实现,作为 MCP 客户端的服务器端,托管与管理资源、注册与执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端通信,提供会话管理、能力声明及多传输协议支持的上下文服务框架。该仓库实现了 MCP 服务器端的核心功能,并与向量检索后端(嵌入、数据库等)进行整合。

网页与API

Kubescape MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源(Resource)托管、工具(Tools)注册与执行,以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,提供安全、可扩展的上下文服务,便于 LLM 进行集成查询和调用外部功能。

开发者工具

MoonBit MCP 服务器端 SDK

基于 MoonBit 的 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册和提示模板等上下文服务,并通过 JSON-RPC 进行稳定的通信。

AI与计算

Inspector:基于模型上下文协议的本地MCP服务器实现

一个完整的MCP服务器实现,提供资源、工具、提示模板等上下文服务,支持JSON-RPC通信、会话管理与多传输协议,面向本地开发、调试和集成OpenAI/Claude等LLM应用。

网页与API

MIESC MCP服务器实现

基于 MIESC 的 MCP(Model Context Protocol)服务器实现,提供资源托管、工具注册与执行、提示模板定义等功能,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输协议的上下文服务能力。

AI与计算

Koder MCP后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务,集成资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式(stdio、SSE、HTTP)以提供可扩展的上下文服务框架。

AI与计算

Agentic QE MCP Server

基于 Model Context Protocol 的后端服务,作为 MCP 服务器向 LLM 客户端以标准化方式提供资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多传输协议接入(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AI与计算

Agent Zero MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文信息、资源、工具与提示模板的管理与执行能力。服务器通过 JSON-RPC 风格的交互,支持资源读取、工具注册/执行、Prompts 渲染等核心功能,并具备会话管理、能力声明,以及对多种传输协议(如 STDIO、SSE、WebSocket 等)的扩展支持,适合在本地或服务端环境中作为 MCP 服务端使用。

AI与计算

UDS-POS MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供标准化的资源(Resources)、工具(Tools)以及提示模板(Prompts),通过 JSON-RPC 与 LLM 客户端通信,支持多传输通道并对接 Supabase 数据源,构建面向 AI 赋能的上下文服务框架。该仓库包含一个完整的 MCP 服务器实现(含工具定义、资源暴露、提示模板以及 Prompt 执行逻辑),并以 Stdio 传输方式提供服务入口。

网页与API

Arivu MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,使用 Arivu 的连接器生态在 JSON-RPC 下向 LLM 客户端提供资源、工具与提示模板等上下文信息,并通过标准输入输出(目前实现)进行 JSON-RPC 通信与会话管理。

AI与计算

ModelCypher MCP 服务器

ModelCypher MCP 服务器是一个基于 Model Context Protocol 的后端服务,提供资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明及多传输协议。

AI与计算

Code Puppy MCP Server

基于模型上下文协议(MCP)的后端服务器,实现资源托管、工具注册/执行以及提示模板渲染,并通过 JSON-RPC 与客户端通信,提供会话管理、能力声明以及对多传输协议的支持,旨在为LLM客户端提供标准化的上下文和外部功能访问服务。

AI与计算

AimDB MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现对 Resources、Tools 与 Prompts 的托管、注册与渲染,并通过 JSON-RPC 2.0 与 LLM 客户端进行通信,支持资源读取/订阅、工具调用、提示获取,以及远程订阅通知等功能。该实现包含完整的服务器端约束、路由、订阅管理与通知输出,具备可运行的 MCP 服务端能力。

网页与API

Ayrshare MCP Server

基于 FastMCP 实现的 MCP 服务器,提供 Ayrshare 的资源、工具与 prompts,通过 JSON-RPC 与大模型客户端交互,实现统一的内容管理、外部功能调用与提示模板渲染能力。

开发者工具

Apply Task MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持 TUI/GUI 与 AI 助手的集成使用。

AI与计算

Singular Blockly Model Context Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供可管理的资源、可注册的工具和可渲染的 Prompt 模板,通过 JSON-RPC 进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明等功能。

AI与计算

MCP Nim SDK 服务器实现

基于 Nim 的 MCP 服务器实现,提供资源、工具、提示模板等管理,支持多种传输协议(stdio、SSE、HTTP/Streamable、InMemory),并通过 JSON-RPC 与客户端进行请求与响应通信。

AI与计算

AI-Infra-Guard MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)管理、工具(Tools)注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 与 LLM 客户端进行通信,支持多种传输通道(如 SSE、StdIO、WebSocket),为大语言模型应用提供标准化的上下文与能力服务。

网页与API

GitHub MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供对 GitHub 的上下文资源、工具执行与提示模板的标准化访问,支持 JSON-RPC 交互,适配多种传输方式并具备会话管理、能力声明与远程工具发现等能力,用于为大语言模型提供可扩展的上下文服务。

AI与计算

SentryFrogg MCP 服务器

基于 Model Context Protocol (MCP) 的 STDIO 交互后端,为大语言模型客户端提供资源管理、工具注册/执行以及提示模板渲染的统一上下文服务。

AI与计算

Digest MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,为 AI 客户端(如大型语言模型)提供标准化的上下文服务:托管资源、注册并执行工具、定义与渲染提示模板,支持通过 JSON-RPC 进行通信。

AI与计算

Midnight MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、Prompts 的注册、管理与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,面向 LLM 的上下文服务与功能扩展。

AI与计算

Fastly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并可在 stdio、HTTP(含 SSE)等传输模式下运行,具备会话管理、能力声明和安全保护机制。

AI与计算

DevBCN 2025 MCP Server

基于 Model Context Protocol (MCP) 的后端示例服务器,提供资源注册、提示渲染,以及多传输(HTTP/STDIO)支持,便于与 MCP 客户端对接与集成。

AI与计算

Krolik MCP 服务器(Claude Code 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管与管理、工具注册/执行,以及提示模板的定义与渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议的上下文服务框架。

AI与计算

GTM Wizard MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 AI 代理提供资源、工具、提示等上下文服务,并通过 JSON-RPC 与客户端交互,支持资源管理、工具执行与提示渲染等核心能力。

AI与计算

py-code-mode

基于 MCP 的后端服务,为大语言模型客户端提供标准化的上下文信息与功能支持,托管资源、注册工具、定义与渲染提示模板,并通过 JSON-RPC 与客户端交互,支持多种传输协议与会话管理。该仓库实现了 MCP 相关组件与服务器端能力,旨在在本地或分布式环境下提供可扩展的上下文服务。

AI与计算

Continuous-Claude MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端实现集合,提供资源、工具、Prompt 模板的标准化对外访问与渲染,涵盖会话管理、MCP 代码执行、工具注册与执行以及多种传输方式的支持,面向对话式大模型客户端提供上下文和功能服务。该仓库包含用于 MCP 的服务器实现、工具包装、以及面向 LLM 客户端的 context 图谱查询与持续性能力,适合作为一个可运行的 MCP 后端生态系统。

AI与计算

LiveKit Agents MCP Server

基于 LiveKit Agents 框架的 MCP(Model Context Protocol)服务器实现与示例,提供资源、工具与提示模板的托管与暴露,支持 JSON-RPC 风格的通信以及多传输协议(如 SSE/WebSocket/StdIO)以供 LLM 客户端访问上下文信息和外部功能。

AI与计算

Dingo MCP Server

基于模型上下文协议(MCP)的后端服务器,向LLM客户端标准化提供资源管理、工具注册/执行以及可自定义的提示模板渲染,通过 JSON-RPC 进行通信与协作。

AI与计算

Chronicle MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的注册与渲染,通过 JSON-RPC 与 AI 客户端进行交互,支持以标准输入输出(StdIO)传输的通信方式,为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

Memo MCP 服务端实现

一个基于 Charm KV 存储的 MCP 服务器实现,提供资源、工具、和提示模板等功能,供对话式 AI 客户端通过 JSON-RPC 与后台进行上下文交互与操作执行。当前实现通过标准输入输出(stdio)传输进行 JSON-RPC 的通信。

AI与计算

YouTube Content Agency MCP 后端集合

基于模型上下文协议(MCP)的后端服务器集合,提供对资源、工具和提示模板的托管与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多种传输方式,适用于为大语言模型(LLM)客户端提供上下文与功能服务的后端架构。仓库内包含 Python 与 TypeScript 实现的多个 MCP 服务器实例及客户端示例,覆盖新闻、YouTube 工具箱、Notion 驱动的框架资源等场景。

AI与计算

Code Guardian MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议接入。

AI与计算

Strudel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,面向 Strudel 音乐助手,提供资源管理、工具执行与提示模板等上下文信息,通过 JSON-RPC 与 LLM 客户端进行交互,并支持基于文件系统的存储与扩展工具集。

AI与计算

AgentPool MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板的渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明及多传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AI与计算

AutomatosX

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 AI 客户端的上下文服务中心,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输协议以便进行安全、可扩展的上下文服务。

开发者工具

AdonisJS MCP 服务器

为 AdonisJS 应用提供 Model Context Protocol 集成,支持工具、资源和提示管理

AI与计算

Mistral.rs MCP服务器

基于Rust的高性能多模态AI推理引擎,提供完整的Model Context Protocol服务器实现,支持文本、视觉、语音和图像生成模型

开发者工具

FastMCP 样板项目

快速构建 MCP 服务器应用的起始样板,包含基础工具、资源、提示模板示例。

AI与计算

ChatData MCP 服务器

提供工具和提示的MCP服务器,扩展大型语言模型能力,支持多种工具和提示模板,简化LLM应用开发。

AI与计算

wildfly ai feature pack

WildFly AI Feature Pack为Jakarta EE应用提供实验性的Model Context Protocol (MCP) 服务器功能,简化AI集成。