返回首页

"LLM 集成" 标签

222 个结果

标签搜索结果

AI与计算

MetricFlow MCP 服务器实现

基于 MetricFlow 的 MCP 服务器实现,提供通过 MCP 端点暴露指标查询、维度枚举和查询等工具,供大语言模型(LLM)等客户端以标准化 JSON-RPC 风格进行交互与调用。

AI与计算

Vigil MCP 服务器

基于 Model Context Protocol 的后端服务,按照 MCP 标准提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,通过 JSON-RPC 作为传输协议与 Claude Desktop/Code/Cursor 等客户端进行上下文对话与功能调用。该服务器内置会话管理、能力声明,并支持多种传输协议,以为 LLM 应用提供可扩展、安全的上下文服务框架。

AI与计算

SkillBoss MCP 服务器(Model Context Protocol 实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、模型/能力管理,以及通过 JSON-RPC 形式对外服务。服务器通过标准传输(如 StdIO)与 MCP 客户端通信,支持多模型调用、任务编排与可扩展的上下文能力,为 LLM 客户端提供统一的上下文与外部功能入口。

网页与API

LocalBoards MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 形式与搭载的 LLM 客户端进行安全、可扩展的上下文服务。该仓库实现了一个可运行的 MCP 服务器端,包含对看板相关资源(Boards、Areas、Cards、Comments 等)的管理、工具执行及通知等功能,并集成了身份认证、邮件发送等服务。

AI与计算

Binance MCP 服务器(Claude 集成示例)

基于 Model Context Protocol 的后端服务器实现,向 LLM 客户端(如 Claude)提供 Binance 的市场数据、账户信息和交易工具等资源与工具。通过 JSON-RPC 方式暴露工具接口,并使用标准传输(如 Stdio)与客户端通信,支持会话管理与能力声明,便于在 AI 场景中实现可扩展的上下文服务。

AI与计算

Apple Container MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板相关能力,桥接 macOS 本地容器命令行(通过 container CLI)与大语言模型客户端,支持 JSON-RPC 形式的请求/响应和多种传输方式。

AI与计算

DaisyUI MCP Server

基于 MCP 协议实现的后端服务器,提供 DaisyUI 组件文档的资源查询与工具调用接口,供 LLM 客户端通过 JSON-RPC 进行组件列表和详细文档的获取与交互。

网页与API

Daiso MCP Server - 基于模型上下文协议的多服务后端

在 Cloudflare Workers 上实现的 MCP 服务器,采用插件化架构聚合多家服务(Daiso、CU、Olive Young、Megabox、CGV),通过 JSON-RPC 与 LLM 客户端进行通信,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,并对 MCP 客户端提供多种传输与会话管理支持,以及可扩展的 REST 代理与文档端点。

AI与计算

ez-xbow-platform-mcp

基于 Model Context Protocol(MCP)的后端服务器,向大语言模型客户端以标准化方式提供赛题资源、工具执行和提示模板等上下文服务,支持多种传输方式并可通过本地/远程 mock 平台进行测试。

AI与计算

Gemini Image MCP

基于 Model Context Protocol 的 MCP 服务器实现,利用 Google Gemini API 提供图像生成与编辑能力,并对外暴露资源、工具调用与提示模板等能力,供大语言模型客户端以统一的上下文服务进行交互。

AI与计算

MCP Gateway

MCP Gateway 是一个将多个 MCP 服务器聚合到一个网关的后端服务,向 MCP 客户端提供统一的工具检索、描述、调用,以及资源和提示的上下文服务,并通过 JSON-RPC 与客户端通信。

AI与计算

Corpus Intelligence MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化方式提供资源、工具与提示模板,并通过 JSON-RPC 与客户端交互,实现会话管理、能力声明与多传输协议支持。

AI与计算

SUMO-MCP-Server

基于 Model Context Protocol 的 MCP 服务器实现,提供与 SUMO 交通仿真系统的资源、工具与工作流等能力,通过 JSON-RPC 的标准化接口对接大型语言模型客户端,支持在 STDIO 等传输方式下的交互。

AI与计算

BrowserForce MCP服务器

基于 Model Context Protocol (MCP) 的本地化服务器,提供资源、工具与提示模板的标准化管理与访问,并通过 JSON-RPC 与客户端通讯,支持多传输协议(如 stdio/SSE/WebSocket)以便让 LLM 客户端在本地安全、可扩展地上下文化浏览器环境。

AI与计算

agenr MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,负责通过 JSON-RPC 向 LLM 客户端提供上下文信息与功能,包括托管和管理 Resources(资源)、注册与执行 Tools(工具),以及定义与渲染 Prompt 模板与交互模式。服务器负责会话管理、能力声明,并支持多种传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Stock Data MCP Server

基于 Model Context Protocol(MCP)的后端服务实现,为 LLM 客户端提供标准化的上下文管理能力:托管资源和数据、注册并执行工具、定义并渲染 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议的扩展能力,为面向大语言模型的上下文服务提供安全、可扩展的服务端框架。

网页与API

Open Web Unlocker MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供统一的资源、工具和提示模板的管理与上下文服务,面向 LLM 客户端通过 JSON-RPC 进行交互。

AI与计算

Paprika MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,为 LLM 客户端提供 Paprika Recipe Manager 的数据资源、可执行工具以及提示模板,通过 JSON-RPC 与客户端通信。

AI与计算

TweetSave MCP 服务端

基于 Model Context Protocol(MCP) 的后端服务器,实现向大语言模型(LLM)客户端提供 Tweet 数据分析与博客生成功能的工具集合,支持通过标准输入输出和 HTTP SSE 两种传输方式进行 JSON-RPC 交互,具备工具注册、会话管理和多传输能力等核心能力。

网页与API

GenesisTools MCP Web Reader 服务

基于 Model Context Protocol(MCP)的服务器实现,提供网页内容获取与转换等工具的 MCP 服务接口,允许 LLM 客户端通过 JSON-RPC 调用工具、检索工具列表并执行网页相关任务,进而得到结构化输出和元数据。该服务明确实现了 MCP 的核心请求处理路径(如 ListTools、CallTool),并提供可运行的服务端代码,作为 MCP 服务器使用。

开发者工具

Smithery MCP 服务器运行环境

基于 Model Context Protocol 的 MCP 服务器实现与运行框架,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等核心能力,并支持多种传输协议(如 StdIO、HTTP 等)以便为大语言模型客户端提供可扩展的上下文服务。

网页与API

NFL MCP 服务器

基于模型上下文协议的 NFL 数据后端,提供资源、工具和提示模板的标准化访问,通过 Streamable HTTP 与大语言模型客户端通信,使用 DuckDB 本地存储并支持数据查询与外部工具调用。

AI与计算

Von MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端实现,提供面向 LLM 客户端的上下文与功能服务。核心能力包括托管与管理资源(Resources)、注册与执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端进行通信;服务器端负责会话管理、能力声明,以及支持多种传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供可扩展的上下文服务框架。

网页与API

UNITARES MCP 服务器

基于 Model Context Protocol(MCP)的后端服务实现,向大型语言模型(LLM)客户端以标准化方式提供上下文信息与功能:托管资源、注册并执行工具、定义与渲染提示模板;通过 JSON-RPC 与客户端通信,并支持多传输协议(如 STDIO、Server-Sent Events、WebSocket),实现会话管理、能力声明与可扩展的上下文服务框架。

AI与计算

superbot-mcp-server

基于 Model Context Protocol(MCP)的后端服务实现示例,提供一个可运行的 MCP 服务器,用于暴露工具并通过 JSON-RPC 与 MCP 客户端通信,底层以 Claude Code 的快速 MCP 服务端为例展开实现。该服务器可与多种前端客户端协同工作,支持工具注册、执行与提示渲染等 MCP 相关能力。

AI与计算

amdWiki MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供对 amdWiki 内容、资源、工具和提示模板的上下文化访问,并通过 JSON-RPC 进行通信与能力声明

AI与计算

bknd

基于 Model Context Protocol(MCP)的后端框架,提供资源(Resources)、工具(Tools)、提示模板(Prompts)的托管与管理,并通过 JSON-RPC 与 LLM 客户端进行交互;内置 MCP 服务器实现,支持会话管理、能力声明,以及多传输协议适配,面向 AI 代理和上下文服务场景的扩展型后端解决方案。

开发者工具

Appium MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,为大语言模型(LLM)客户端提供标准化的上下文服务,包括资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,并支持多种传输协议(如 STDIO、HTTP SSE),用于移动端自动化场景(Android 与 iOS)中的上下文信息与外部功能访问。

AI与计算

OmniSpecialist MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,托管资源、注册工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端进行交互,支持跨进程/网络传输以提供可扩展的上下文服务。

AI与计算

lm-deluge MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板的托管与渲染,并通过 JSON-RPC 与客户端进行标准化通信;包含从本地或远程 MCP 服务器加载工具的能力,以及将 MCP 请求转换为 LM-Deluge 内部请求、再将响应转换回 MCP 格式的适配器组件,支持多种传输模式,旨在为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Demarkus MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源/文档管理、工具(Tools)的注册与执行、以及对外提供的提示模板等能力,客户端通过 JSON-RPC 与服务器通信;实现了多工具入口、会话/认证支持,以及通过标准输入输出(STDIO)的 MCP 服务端。

AI与计算

Azure Pricing MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供,以统一的资源、工具和提示模板接口向大语言模型客户端暴露 Azure 定价、SKU 发现、区域推荐等功能的 MCP 服务器实现

AI与计算

srchd MCP 服务器实现与管理平台

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,设计用于通过 JSON-RPC 与 LLM 客户端进行标准化的上下文服务、工具调用与提示渲染等交互。

开发者工具

Magpie MCP 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源、工具和 Prompt 的注册、托管与渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持多种执行环境用于 AI 代理的上下文服务。

AI与计算

GNO MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,为本地知识引擎提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议与会话管理,适用于离线或私有环境的上下文服务场景。

开发者工具

Harness MCP Server 2.0

基于 Model Context Protocol 的后端服务器实现,通过 JSON-RPC 规范向 LLM 客户端提供 Harness 平台的资源、工具与提示模板等上下文服务,支持多传输协议与会话管理,具备完整的工具注册、资源注册与提示模板渲染能力。

桌面与硬件

MCP服务器-os-level桌面自动化后端

基于 Model Context Protocol (MCP) 的桌面UI自动化后端,提供 JSON-RPC 接口用于向LLM客户端暴露资源管理、工具注册/执行与提示模板渲染等能力。核心实现包含在 macOS 上的无头/交互式Accessibility引擎、跨平台框架占位,以及对MCP初始化、工具执行等请求的处理与响应。

网页与API

MCP Perf Suite

基于 Model Context Protocol (MCP) 的一组模块化 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板等能力,用于向大型语言模型(LLM)客户端以标准化方式提供上下文与功能,支持多种传输与场景的后端服务体系。

AI与计算

Pierre MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板的标准化管理与 JSON-RPC 通信,支持多传输协议、会话管理与权限控制,为大型语言模型提供可扩展的上下文服务。

网页与API

MCP 邮件服务器

基于 Model Context Protocol 的 Quarkus 服务器实现,将邮件相关操作以 MCP Tools 的形式暴露,供大语言模型(LLM)客户端进行读取、搜索、阅读、编写与管理邮箱上下文内容的交互与推理。

AI与计算

Foundry Docs MCP Server

基于模型上下文协议(MCP)的后端服务器,为大语言模型客户端提供 Foundry 文档的上下文、检索、工具执行和 Prompt 渲染等能力,并通过 JSON-RPC 与客户端进行通信,实现资源管理、工具注册/执行和 Prompt 定义的标准化后端服务。

桌面与硬件

Kunobi MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,用于将 Kunobi 桌面应用的多变体环境、可用工具、资源与提示以标准化的 MCP 形式暴露给 LLM 客户端,支持多变体自动发现、动态注册与工具调用等能力。

AI与计算

HowCanI MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,为 LLM 客户端提供标准化的上下文与功能服务,核心包括资源(Items/Tags/Users)的托管、工具(如搜索、获取、更新、创建等)注册与执行,以及通过 MCP JSON-RPC 与客户端通信的能力,支持 HTTP 传输并具备会话管理与能力声明。

AI与计算

ChatShell MCP 服务器示例

一个基于 RMCP 的 MCP 服务器实现示例,展示如何在 ChatShell 项目中托管资源、注册工具、定义并渲染提示模板,并通过 JSON-RPC/HTTP 传输与 LLM 客户端进行交互。

AI与计算

dans_lazy_file_dump MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供对资源、工具和 Prompt 的标准化管理与渲染,并通过 JSON-RPC/HTTP 与支持的客户端进行通信,适合作为 LLM 助手的上下文服务后端。

网页与API

md-server 本地 MCP 服务端

基于 Model Context Protocol (MCP) 的本地后端服务器,提供对资源的读取与转换、工具执行以及提示模板渲染能力,并通过 JSON-RPC/SSE/stdio 等传输方式与 LLM 客户端进行上下文服务交互。

AI与计算

DevTest MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行、提示模板渲染等能力,供 LLM 客户端通过 JSON-RPC/HTTP 等方式访问并进行意图解析与执行任务的上下文服务。

AI与计算

Canopy MCP 服务器

基于 Canopy 的 MCP(Model Context Protocol)后端实现,提供资源、工具与提示模板等上下文服务,并通过 STDIO/HTTP 等传输协议与 LLM 客户端进行 JSON-RPC 通信与协作。

AI与计算

Alaya MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,使用 Rust 编写并通过 JSON-RPC 与 MCP 客户端通信,提供记忆资源管理、工具注册与执行、以及可定制的提示/交互模板渲染能力;支持自带的内存后端、嵌入向量与混合检索、以及可选的 LLM 自动提取与知识 consolidating 流程,具备会话管理与多种传输形态的扩展能力。

AI与计算

HealthReporting MCP 服务器

基于 Model Context Protocol (MCP) 的健康数据后端服务器,向大型语言模型(LLM)客户端以标准化格式提供资源访问、工具执行与提示渲染能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,以实现对健康数据的上下文提供与功能扩展。

AI与计算

Relay MCP Server

基于模型上下文协议 (MCP) 的服务器实现框架,用于将一组工作流暴露为可通过 MCP 客户端调用的工具,并支持在浏览器/代理端以流式 NDJSON 的方式交互、管理资源、执行工具以及渲染提示模板。该仓库提供从本地到云端的完整服务器端实现和示例。

AI与计算

Neo4j Agent Memory MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,提供资源存储、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多传输方式以供 LLM 应用使用。

网页与API

European Parliament MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对欧洲议会开放数据的结构化上下文访问、工具注册与调用、以及可渲染的提示模板,客户端通过 JSON-RPC 与之通信,支持多种传输方式并具备会话管理与安全合规能力。

AI与计算

knowledge-server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板,统一通过 JSON-RPC/HTTP 方式向本地或嵌入式的 LLM 客户端提供上下文服务与推理支持。

AI与计算

Borg MCP 服务器实现集

基于 Model Context Protocol (MCP) 的后端服务器实现集合,提供资源管理、工具注册/执行以及提示/模板渲染等能力,供 LLM 客户端通过 JSON-RPC 与多种 MCP 服务器进行交互。仓库内包含多个独立的 MCP 服务端实现(如 lexis-mcp、lawborg-mcp、borg-mcp 等),通过 StdioTransport 提供标准化的服务入口,支持工具列表、工具调用以及跨提供方的集成能力。

网页与API

Crowd IT Unified MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器,提供资源管理、工具注册与执行以及 Prompt 模板渲染的统一上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持在多种传输协议下工作(如 STDIO、SSE、WebSocket)。

AI与计算

PePeRS MCP Server

PePeRS MCP Server 是基于 Model Context Protocol (MCP) 的后端实现,面向 LLM 客户端提供标准化的上下文服务,包括资源管理、工具注册/执行以及可渲染的 Prompt 模板,通过 JSON-RPC/HTTP+SSE 等传输与客户端进行通信,支持多种传输协议与会话管理,是面向学术领域大模型应用的上下文服务框架。

AI与计算

envpkt MCP 服务器

基于 Model Context Protocol 的后端服务器,向 LLM 客户端提供凭证元数据、工具和资源信息,并通过 JSON-RPC 进行通信,便于在对话中查询和执行外部功能。它包含资源管理、工具注册与调用、以及轻量的提示/模板能力支撑,适配多种传输方式。

AI与计算

Sage Design Engine MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供组件注册与查询、工具执行以及应用模板获取等功能,通过 JSON-RPC 与客户端通信,供 LLM 客户端查询和执行资源、工具、Prompts 等上下文服务。

AI与计算

MCP CAPI 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对 Kubernetes Cluster API 的资源、工具和提示等上下文服务,支持多传输协议并具备自更新能力,面向把对话式 AI 与 CAPI 集群管理结合的应用场景。

AI与计算

Radar MCP 服务端

Radar 内置的 Model Context Protocol (MCP) 服务器实现,提供统一的资源数据访问、工具调用与 Prompt 渲染接口,支持通过 JSON-RPC 与 LLM 客户端通信,方便 AI 助手查询集群上下文、执行外部功能、渲染对话模板等。

网页与API

WebAct MCP 服务端

基于 MCP 协议的后端服务,提供对浏览器自动化能力的统一访问入口,通过 JSON-RPC 与客户端交互并将命令映射到 WebAct 的 CLI/SDK 操作,实现对资源、工具及提示模板等能力的托管与执行,适用于将浏览器自动化功能嵌入到大语言模型的工作流中。

AI与计算

Robinhood Portfolio MCP Server

基于 Model Context Protocol 的 Robinhood 投资组合只读后端,为LLM客户端提供统一的数据访问、工具调用与对话能力。

AI与计算

SDL-MCP 服务器(Symbol Delta Ledger MCP)

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端提供标准化的资源访问、工具执行与提示模板渲染能力,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 Stdio、HTTP、SSE、WebSocket),用于在代码上下文中以高效、可审计的方式提供上下文与功能服务。

网页与API

WCA MCP Server

基于 Model Context Protocol (MCP) 的后端服务,向大语言模型客户端以标准化方式提供世界魔方协会(WCA)数据的资源、工具与提示模板等上下文能力,并通过 JSON-RPC 与客户端交互实现数据读取、外部功能调用与提示渲染等功能。

AI与计算

Lilbee MCP 服务端

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板渲染等能力,供离线/本地 LLM 客户端通过 JSON-RPC 调用获取上下文、执行外部工具和渲染提示。

商业系统

FluentCart MCP 服务器端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的注册、管理与执行,允许通过 JSON-RPC 与任意 LLM 客户端进行上下文信息服务与外部功能调用,并支持多种传输方式与会话能力声明。

AI与计算

memorybox

基于 MCP 的后端服务器,为 AI 代理提供持久化记忆、数据访问和工具执行能力;通过本地 SQLite 库存储并可跨会话检索记忆,集成五个 MCP 工具以进行存储、检索、召回、删除和列出记忆的操作。

网页与API

Personal KB MCP Server

基于 Model Context Protocol (MCP) 构建的后端服务器,向 LLM 客户端标准化暴露资源、工具与 Prompt 模板,并通过 JSON-RPC 与客户端交互,实现知识管理、工具注册与自定义对话模板的渲染与执行。

AI与计算

OpenSpawn MCP 服务器

基于 MCP 协议实现的后端服务,按标准 JSON-RPC 向 LLM 客户端暴露工具(Tools)、资源管理能力与提示模板等能力,并通过与沙箱模拟器的集成提供统一的上下文和功能接口。服务器核心包含对 MCP 请求的处理、初始化能力声明、工具列表示以及工具调用执行等核心功能,支持与 BikiniBottom 沙箱的发送/接收、路由与任务管理等模块协同工作。

AI与计算

Lucius MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,面向 LLM 客户端提供统一的上下文能力(资源、工具、Prompts),通过 JSON-RPC 进行通信,底层采用 FastMCP 与 Starlette 构建,支持会话管理、能力声明以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,面向 Allure TestOps 场景的资源与工具服务化暴露。

AI与计算

Planning Game XP MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具与提示模板的标准化管理与访问,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明,以及与 Firebase 数据库的交互。该仓库包含可运行的 MCP 服务端代码及相关工具与测试,适用于将 LLM 客户端接入 Planning Game XP 的上下文与功能服务。

AI与计算

Poiesis MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具与提示的统一注册、管理与访问,通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多模块扩展和 Bearer Token 认证。

开发者工具

XcodeAutoPilot MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现通过 JSON-RPC 提供资源、工具与上下文能力的访问,支持 Claude Code 等 LLM 客户端对 Xcode 构建、错误分析与自动修复流程的统一访问与协作。

AI与计算

Clawdstrike MCP 服务器实现(Cursor 插件集成)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具与提示模板,并通过 JSON-RPC 形式与 LLM 客户端交互,核心通过 clawdstrike CLI 进行策略执行、审计与 receipts 的产出,支持 STDIO 传输方式用于嵌入式/桌面场景。通过 Cursor 插件中的 MCP 服务器实现,将策略执法与工具边界保护融入到 MCP 框架之中。

AI与计算

ctx-sys MCP 服务器

基于 Model Context Protocol (MCP) 的本地化上下文服务后台,提供资源、工具与提示模板管理,并通过 JSON-RPC 等协议与 LLM 客户端进行标准化通信,支持会话管理、能力声明以及多种传输方式以便嵌入式智能应用使用。

AI与计算

Epic Scheduler MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和 UI 渲染等能力,使用 JSON-RPC 通过 /mcp 与客户端通信,支持 Durable Objects、WebSocket、SSE 等传输,面向 LLM 客户端的上下文与功能服务。

AI与计算

Server Doctor MCP Server

基于 Model Context Protocol(MCP)的服务器端应用,提供面向LLM客户端的诊断与监控上下文服务。负责接收日志/健康/指标数据、注册与管理监控目标服务器、并通过可扩展的“工具”接口向LLM提供可执行的诊断与分析功能,支持通过JSON-RPC/流式传输与LLM进行交互。

AI与计算

General Translation MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的标准化管理与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 STDIO)以为 LLM 应用提供安全、可扩展的上下文服务。

AI与计算

Cortex MCP 服务器

基于 Cortex 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端提供标准化的上下文、资源与工具访问,并支持多传输协议(标准输出/HTTP+SSE),实现资源、工具、提示模板等 MCP 核心能力。

AI与计算

Libra MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Libra 项目的一部分,向 LLM 客户端以标准化方式提供上下文信息与能力:托管并管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端进行通信,支持多种传输通道(如 Stdio、SSE、WebSocket),实现会话管理与能力声明,便于 AI 场景下的上下文服务与功能扩展。

AI与计算

HiPilot MCP Server Suite

基于 Model Context Protocol 的多 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板的标准化访问;通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明和多种传输方式,适用于 EDA 及 VLSI 设计的上下文服务后端。

网页与API

Demarkus MCP 服务端

基于 Mark Protocol 的 MCP 服务器实现,向大型语言模型客户端以标准化方式暴露读取资源、执行工具、以及渲染提示模板等能力,并通过 JSON-RPC 进行通信。

AI与计算

pai MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务端实现,提供对资源、工具和提示模板的标准化管理与访问,支持与大语言模型客户端通过 JSON-RPC 进行交互,并定义不同传输方式(如 StdIo、SSE 等)以供 LLM 应用接入。仓库中包含完整的 MCP 服务入口、19 个工具实现及集成示例,具备可运行的服务器端代码。<br>核心功能包括:托管资源与知识、注册并执行工具、渲染 Prompt 模板、以及会话与能力声明管理等。

网页与API

DuckDuckGo MCP Server

基于 Model Context Protocol 的后端服务器,提供 DuckDuckGo 网络检索、新闻检索与 Jina Reader 内容获取等工具,并通过 MCP 协议向大型语言模型客户端提供规范化的资源与工具访问。

AI与计算

Vivid MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,将 LLM 客户端通过 JSON-RPC 接入 Vivid 运行时的控制接口,以统一管理资源、注册与执行工具,以及渲染与获取 Prompt 模板,提供对三域运行(GPU/GPU 纹理、音频、控制信号)的上下文服务。

AI与计算

VibesRails MCP 服务器

基于模型上下文协议(MCP)的后端实现,作为 MCP 服务器向 LLM 客户端提供上下文信息、资源与工具,并支持提示模板的渲染与执行。通过 JSON-RPC 与客户端通信,提供资源读取、工具调用、Prompt 获取等能力,支持会话管理、能力声明以及多传输协议(如 stdio)的扩展性上下文服务框架。

开发者工具

Aegis MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供对本地 Aegis Agent Kit 的 MCP 接口,允许对实例管理、秘密、工具调用等功能进行统一的 JSON-RPC 访问,并与本地 aegisd/Aegis 运行时无缝协作以驱动 LLM 客户端的上下文能力获取与任务执行。

AI与计算

AGENR MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,作为 LLM 客户端的上下文与能力提供者。该仓库实现了 MCP 服务器核心功能,包括资源(Resources)的托管与访问、工具(Tools)的注册与执行、Prompt 模板的定义与渲染,以及通过 JSON-RPC 与客户端的通信,支持多种传输通道(如标准输入输出、SSE、WebSocket),并具备会话管理与能力声明能力,用于提供安全、可扩展的上下文服务。

AI与计算

SideButton MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向大语言模型(LLM)客户端提供资源、工具注册与执行、以及可自定义的 Prompt 模板等上下文能力,并通过 JSON-RPC/ SSE/ stdio 等传输协议进行交互,适用于在浏览器、终端或应用中集成上下文服务。

网页与API

rijksmuseum-mcp-plus

基于 Model Context Protocol (MCP) 的 Rijksmuseum MCP+ 后端,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具与提示模板,支持多种传输模式(STDIO、HTTP),并整合 Rijksmuseum 的元数据与向量检索能力以实现艺术品上下文服务。

AI与计算

Edge Trade MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具调用与上下文渲染,供大语言模型客户端通过 JSON-RPC 进行高效、可扩展的上下文服务访问。

AI与计算

Athena MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管与访问、工具注册与执行、以及 Prompt 模板的渲染与管理;通过 JSON-RPC 方式与客户端通信,支持多传输协议(如标准输入输出和 SSE),实现会话管理、能力声明与权限控制,面向 LLM 客户端提供可扩展、可审计的上下文服务框架。

AI与计算

PMCP Progressive MCP 网关服务器

PMCP 是一个基于模型上下文协议(MCP)的后端网关服务器,提供资源、工具、提示的管理与执行,支持多种传输协议(stdio、SSE、HTTP),并实现渐进式工具暴露、缓存描述、及安全策略等功能,供大语言模型客户端使用上下文服务。

开发者工具

OmnySys MCP 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行、以及可渲染的提示模板,面向大型语言模型(LLM)客户端以标准化方式提供上下文信息和功能。

AI与计算

Bacchus VINE MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,为大语言模型客户端以标准化方式提供 VINE 任务图的资源、工具和提示模板;通过 JSON-RPC 进行通信,支持多传输方式(如 StdIO、SSE、WebSocket),并实现会话管理、能力声明及对 vine 文件的读写/扩展能力。

网页与API

FreshContext MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,向 LLM 客户端以标准化的 JSON-RPC 形式提供带时间戳的资源、工具和促发模板,支持多传输协议、会话管理与安全控制,便于构建可扩展的上下文服务。

开发者工具

Census MCP 服务端(Open Census MCP Server)

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供资源(Resources)、工具(Tools)和提示模板(Prompts)的标准化上下文服务。通过 JSON-RPC 与客户端通信,服务器负责会话管理、能力声明,以及对资源、工具和提示进行托管、注册与渲染,支持多传输协议的接入以实现灵活的后端上下文服务框架。

AI与计算

Skulto MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器实现,向 LLM 客户端提供技能资源、工具注册与执行以及提示模板的定义与渲染,支持 JSON-RPC 调用、会话管理与多传输协议接入。

AI与计算

Istaroth MCP Server

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供对资源、检索工具与提示渲染的访问与执行能力,并通过 HTTP/WebSocket 通信实现跨语言的上下文服务。

AI与计算

Project Orchestrator MCP 服务端

基于 MCP 协议的后端服务,为大语言模型客户端统一提供资源、工具和提示模板的上下文服务,支持多传输协议、会话管理与可扩展的工具与模板渲染能力。

AI与计算

PUNT MCP 服务器

基于 Model Context Protocol (MCP) 的自托管后端实现,提供资源、工具与提示模板的对外接入能力,面向大语言模型(LLM)客户端以标准化方式提供上下文信息与功能,当前实现通过标准的 MCP 服务器与管道传输(stdio)进行 JSON-RPC 风格的通信。

AI与计算

claude-skills-vault

基于 Model Context Protocol (MCP) 的服务器集合,提供资源访问、工具注册与执行,以及对话/上下文能力的标准化后端,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用与提示渲染等操作。

AI与计算

Everything Agent Databricks DevTools MCP 服务器

基于模型上下文协议(MCP)的服务器实现,暴露 Databricks 相关的资源、工具执行能力以及查询结果渲染,供大语言模型客户端通过 JSON-RPC 进行交互。

AI与计算

TabOrg MCP Server

基于 Model Context Protocol (MCP) 的本地服务器实现,提供对浏览器标签、分组、窗口等资源的访问、工具的注册与执行,以及提示模板的定义与渲染,供外部大语言模型(LLM)客户端通过 JSON-RPC 进行上下文查询、操作与交互。

AI与计算

MIDL MCP 服务器(Bitcoin 与 L2-MIDL 集成)

基于 Model Context Protocol (MCP) 的后端服务,实现资源托管、工具执行以及提示模板渲染,供大语言模型在 MIDL 区块链生态中安全、可扩展地获取上下文信息并执行相关操作。

AI与计算

Dela-MCP 服务器实现

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及可渲染的提示模板等能力,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明及多种传输形式,便于在编辑器、IDE 等环境中以标准化方式获取上下文信息与功能。该仓库实现了完整的 MCP 服务器端逻辑,包含任务发现、任务执行、结果与日志通知等核心能力。

网页与API

Sequence Banking MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型(LLM)客户端提供 Sequence 银行业务的上下文资源、可执行工具以及可渲染的提示模板,支持通过多种传输协议与客户端进行 JSON-RPC 交互,實现账户查询与远程规则触发等功能。

AI与计算

Rosetta KIC MCP 服务器

基于 MCP 的后端服务,向 LLM 客户端提供循环肽分析工具、资源和提示模板,并通过 JSON-RPC 协议进行通信。

AI与计算

AgentMux MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端进行交互,支撑多传输协议的上下文服务与安全扩展能力。

开发者工具

SDMX MCP Gateway

基于 Model Context Protocol (MCP) 的 SDMX 后端服务器实现,提供渐进式数据发现、资源与工具管理、可渲染的结构关系图,以及多端传输支持,旨在为大语言模型客户端提供安全、可扩展的统计数据上下文服务。

开发者工具

CodeAgent MCP 服务器套件

基于 Model Context Protocol (MCP) 的多模块后端服务器集合,向 LLM 客户端以标准化方式提供资源、工具和提示模板的访问、执行与渲染能力,支持跨多个 MCP 服务的协同工作与会话管理。

开发者工具

Manim-MCP 服务端

基于 Model Context Protocol (MCP) 的 Manim 渲染后端服务器,提供资源托管、工具执行和 Prompts/模板的标准化接口,供 LLM 客户端通过 JSON-RPC 与后端进行资源读取、工具调用以及渲染作业管理等交互。

AI与计算

Flowise MCP Server

基于 Model Context Protocol (MCP) 的服务端实现,提供 Flowise 实例的资源、工具、提示模板等管理能力,并通过 MCP 客户端进行标准化的 JSON-RPC 交互,支持向量检索、文档存储、会话管理等后端上下文服务。

AI与计算

Google Cloud DevOps MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,向大语言模型(LLM)客户端提供标准化的上下文服务,包括资源(Resources)的管理、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议(如 STDIO、SSE、WebSocket)的扩展能力。

AI与计算

Consult LLM MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 consulta_llm 工具、资源上下文和提示模板,支持 JSON-RPC 请求/响应,当前实现通过 STDIO 传输进行通信,具备资源管理、工具注册与执行、以及提示渲染等核心能力。

开发者工具

Gasoline AI DevTools 服务器

基于 Model Context Protocol(MCP)的后端服务器,向大模型客户端提供资源管理、工具注册/执行和提示渲染等能力,并通过 JSON-RPC 与客户端通信,支持多种传输模式与会话管理。

AI与计算

Grove MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,为大型语言模型(LLM)客户端提供标准化的上下文、工具调用和提示渲染能力,支持资源管理、工具注册与执行,以及提示模板渲染等功能,默认通过标准输入/输出(JSON-RPC over STDIO)进行通信。

网页与API

YouTube Data MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端以标准化方式提供 Lean 的 YouTube 数据资源、可注册与执行的工具,以及可渲染的 Prompt 模板,支持 JSON-RPC 形式通信、会话管理与 MongoDB 缓存等能力。

数据库与文件

Universal Database MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供对多种数据库的资源管理、查询执行与数据导出能力,通过 JSON-RPC 与 LLM 客户端进行通信,并支持多种传输协议(如 STDIO),为大语言模型应用提供可扩展的数据库上下文服务。

开发者工具

Hatch MCP 服务器端

基于 Hatch CLI 的 MCP(模型上下文协议)后端实现,提供资源与数据访问、工具注册与执行、以及 Prompts 渲染等能力。服务器通过 JSON-RPC 与 AI 客户端通信,注册多种工具并暴露给客户端,支持通过标准输入/输出(stdio)等传输方式进行交互,适合作为 LLM 助手的上下文与功能服务端。该实现包含完整的服务器端逻辑、工具注册、认证、以及与 Hatch API 的交互。

AI与计算

HUMMBL MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具和提示模板,支持会话管理、能力声明以及多传输协议接入,具备资源管理、工具注册、流程模板渲染等完整功能。该实现包含服务端核心组件、工具/资源注册、数据框架、以及与 Claude Desktop 等客户端对接所需的 stdio 传输入口。

AI与计算

loko MCP 服务器端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行,以及提示模板的渲染,采用 JSON-RPC 通过标准输入输出与 LLM 客户端通信,支持插件化工具、会话管理与多种传输接口。

网页与API

ASO MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为语言模型客户端提供 Google Play Store 的应用发现、详情、评价、关键词建议以及元数据校验等能力,具备代理轮换、会话管理和多工具接口,当前实现为可运行的原型。

AI与计算

da-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型(如 Claude、ChatGPT)提供 DA(Document Authoring)资源、工具调用和提示模板等上下文能力,通过 JSON-RPC 与 MCP 客户端通信,并支持云端部署(Cloudflare Workers)、流式传输与简单的令牌鉴权。

AI与计算

Nucleus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,将 LLM 客户端对资源、工具、Prompt 等的标准化请求通过 JSON-RPC 转发给 nucleus-tool-proxy,并返回相应的 JSON-RPC 响应,支持审批、会话标识等能力。

AI与计算

EDGAR 财务数据 MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供从 SEC EDGAR 提取的 filings、财务数据与指标的工具接口,并通过 JSON-RPC 与大语言模型客户端进行通信。

AI与计算

Intelligent Intake and Triage MCP Server

基于 Model Context Protocol (MCP) 的服务器端实现,作为后端上下文服务提供者,面向 LLM 客户端提供资源管理、工具执行和提示模板定义等功能,并通过 JSON-RPC/MCP 协议进行通信。实现了资源、工具、提示、多模态信息处理、会话管理以及通过配置驱动的行业路由与风险等级评估等能力。

AI与计算

TestCollab MCP Server

基于 Model Context Protocol(MCP)的后端实现,向大语言模型客户端提供测试管理的上下文、资源、工具及提示模板渲染,并通过 JSON-RPC 的 MCP 协议与客户端进行通信与协作。

AI与计算

OpenNote MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对用户文档资源的语义检索、文档元数据与内容访问等能力,并通过 JSON-RPC/流式 HTTP 与 LLM 客户端进行交互,适配多用户场景和嵌入向量服务的后端数据服务。

开发者工具

MCP 本地开发框架与服务端实现

基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源、工具与端点的管理能力,并通过 MCP 客户端与大模型进行上下文信息与功能调用的标准化交互,支持多种传输方式(如 STDIO、Web 以及 Docker 场景下的服务化部署)。

数据库与文件

db-reader-mcp

基于 Model Context Protocol (MCP) 的只读数据库后端服务器,向大模型客户端提供一致的上下文信息与功能服务。它通过标准化的 JSON-RPC/MCP 机制向客户端暴露资源、工具与提示模板等能力,支持多数据库、HTTP 传输与安全控制,适用于生产环境的可扩展上下文服务。

开发者工具

StoreConfig MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为 StoreConfig 的 MCP 服务器,向 LLM 客户端提供 JSON 结构化的资源、工具和上下文内容,支持通过 JSON-RPC 的请求/响应方式进行资源查询、工具执行、以及对配置模板的交互渲染,帮助 AI 辅助的配置管理场景。

网页与API

mollie-mcp

基于 Model Context Protocol (MCP) 的 Mollie API 服务端,向大型语言模型(LLM)客户端以标准化方式提供 Mollie 支付信息、查询工具与 prompts,通过 JSON-RPC 与客户端通信并通过标准传输(如 Stdio)实现扩展性与会话管理。

AI与计算

Dash2Insight-MCP

基于 Model Context Protocol 的 MCP 服务器实现,能够从 Grafana Dashboard 提取指标和变量信息,并通过 Prometheus API 提供即时与时间范围查询等能力,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具与 Prompts。

AI与计算

rcaptcha MCP 服务端技能(Two-Call Flow)

基于 Model Context Protocol (MCP) 的服务端实现,提供 rcaptcha_get_challenge 与 rcaptcha_submit 两个工具,方便大模型代理在两步挑战中证明自己是 AI,从而获取访问令牌。

AI与计算

Datum MCP 服务器实现

基于 Model Context Protocol 的后端服务实现,提供资源托管、工具执行、以及提示模板渲染等能力,支持通过 JSON-RPC 与大语言模型客户端进行资源读取、外部功能调用、以及上下文管理等交互。服务器端提供 STDIO 传输的 JSON-RPC 服务,并可选搭建 HTTP 调试接口,适合将本地上下文服务嵌入到 AI 助手工作流中,便于对接 Kubernetes 资源、CRD、以及服务器端的 dry-run 验证等功能。

AI与计算

Paperpipe PaperQA Retrieval MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,专门暴露 PaperQA2 检索能力给 LLM 客户端。通过 MCP 框架提供 JSON-RPC 风格的请求/响应接口,支持检索上下文片段、列出可用索引及查询索引状态等功能,适用于嵌入式上下文服务场景。

AI与计算

Altmetric MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端暴露工具(Tools)与外部数据源访问能力,通过 JSON-RPC 风格的请求/响应进行交互,并支持 STDIO 传输以便与本地或嵌入式 LLM 集成。

网页与API

Confluence MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供 Confluence 页面搜索与文本读取等功能,并通过 MCP 标准向大型语言模型(LLM)客户端暴露工具与资源,以便在对话系统中获取上下文数据与外部能力。

AI与计算

Miroir MCP 服务器

基于模型上下文协议(MCP)的后端服务器,实现资源/工具/提示模板的托管与对外能力暴露,支持 JSON-RPC 请求、SSE 实时传输和会话管理,为 LLM 客户端提供标准化的上下文服务。

AI与计算

Voice MCP Demo

基于 MCP 的语音输入输出后端服务,提供 listen、listen_fixed、speak 等工具,供 Claude Code 等 MCP 客户端进行语音对话和上下文管理。

开发者工具

Kubani Registry MCP Server

基于 Model Context Protocol(MCP)实现的服务器端,提供对 Kubani Registry 的资源、端点、模型、部署等元数据的标准化访问和工具调用入口,供大语言模型客户端进行上下文获取、功能调用与数据渲染等协作操作。

开发者工具

BNSQL MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供对 Binary Ninja 数据库的 SQL 查询、自然语言查询与外部工具调用能力,并通过 MCP/SSE 与 LLM 客户端进行标准化通信,作为上下文与功能服务入口。

AI与计算

hono-mcp-server

基于 Model Context Protocol (MCP) 的后端服务器,将 Hono API 端点暴露为 MCP 工具,核心实现包括资源托管、工具注册/执行、提示模板渲染,并通过 JSON-RPC 与客户端通信,支持多种传输协议(如 Stdio、SSE、WebSocket),为 LLM 客户端提供安全、可扩展的上下文服务。

AI与计算

PPTAgent MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供 PPTAgent 的资源、工具和模板的统一对外接口,支持通过 MCP 客户端以 JSON-RPC 调用实现资源管理、工具执行与 Prompt 渲染等功能,用于为 LLM 客户端提供上下文信息和可执行能力。

开发者工具

Lights-Out Discovery MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源发现、工具注册与执行、以及通过 JSON-RPC 与 LLM 客户端交互的能力,用于向 LLM 应用提供上下文信息与外部功能。该服务器以 MCP 规范为核心,托管并管理资源、注册工具、渲染提示模板等,支持标准的请求/响应流程。

AI与计算

Agent Mux MCP服务器实现

基于 tmux 的代理池实现,附带一个用于 LLM 客户端的 MCP 服务器,提供资源管理、工具注册与执行、以及提示模板等能力,通过 JSON-RPC 与客户端通信,支持通过标准输入输出进行交互的服务器模式。

AI与计算

GenAI MCP 服务器示例套件(EKS 实现)

基于 Model Context Protocol 的 MCP 服务器实现集合,提供收入/就业验证、地址验证、图像处理和简单计算等服务端示例,并演示与 MCP 客户端的集成与调用方式。

AI与计算

CyberChef MCP 服务器

基于模型上下文协议(MCP)的后端服务器,将 CyberChef 的海量数据处理操作和工具暴露给对话式AI客户端,支持资源管理、工具注册与执行,以及可定制的提示模板渲染,且通过 JSON-RPC 与客户端通信,覆盖多种传输方式(STDIO、HTTP、SSE、WebSocket),帮助生成式AI在执行数据处理任务时获得稳定、可扩展的上下文服务。

网页与API

f5xc-api-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与提示模板渲染等能力,供 LLM 客户端以标准化方式获取上下文信息和外部功能访问。

AI与计算

Workflowy Local MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务器,提供 Workflowy 数据的资源托管、工具执行和提示模板渲染,供大语言模型客户端以 JSON-RPC 的方式读取和操作本地数据。

网页与API

tescmd MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 形式暴露资源、工具和提示,提供会话管理、能力声明、工具注册与执行,以及对多种传输协议的支持,构建可扩展的上下文服务框架。

AI与计算

AudioReader MCP Server

基于 Model Context Protocol (MCP) 的 AudioReader 后端实现,暴露工具给 LLM 客户端以读取资源、调用工具、获取并渲染 Prompts 等,便于与 Claude/OpenAI 等对接进行上下文服务和功能调用。

网页与API

Google Workspace MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供对 Google Workspace(Gmail、Drive、Docs、Sheets、Calendar、Chat、People 等等)的资源管理、工具调用与 Prompt 渲染等能力,供 LLM 客户端以统一的 JSON-RPC 方式查询和执行。

AI与计算

Stitch MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具与提示模板的托管、注册与渲染能力,并通过 JSON-RPC 与 LLM 客户端通信。内置会话管理、能力声明以及支持多传输协议的 MCP 服务器代理功能,面向大语言模型应用提供安全、可扩展的上下文服务框架。

AI与计算

enjoy MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,提供通过 JSON-RPC 与 LLM 客户端进行交互的能力,允许对工具进行注册与执行、获取项目状态与排行榜等,并通过标准传输(如 STDIO)实现与 Claude/GPT 等客户端的无缝对接。

AI与计算

Type Crafter MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型(LLM)客户端提供 YAML 规范写作辅助、资源/工具管理与提示模板渲染等能力。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(stdio)传输方式,便于本地集成到开发工具链或桌面客户端(如 Claude 桌面)中。

AI与计算

Berry Classic MCP 服务器

Berry 实现了基于 Model Context Protocol 的经典(Classic)MCP服务器 surface,提供核心的上下文服务能力:资源与证据管理、工具执行、以及提示模板的暴露与渲染,并通过 JSON-RPC 风格接口供 LLM 客户端调用。

网页与API

Skolverket MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器,面向大语言模型客户端提供教育开放数据的上下文、工具调用与提示模板等能力,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式(stdio 与 HTTP/SSE)以实现灵活的上下文服务。

AI与计算

Neo4j MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 Neo4j 资源访问、工具执行和提示模板渲染等能力,采用 JSON-RPC 进行通信,支持 STDIO 和 HTTP 传输模式,为大语言模型(LLM)应用提供标准化的上下文和功能服务。

开发者工具

Optiaxiom MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,为大语言模型(LLM)客户端提供标准化的资源、工具执行能力以及提示模板的数据与接口,通过 JSON-RPC 进行通信,并通过标准传输(如 STDIO)提供会话管理与能力声明。该实现从组件、图书、图标及设计令牌等 Design System 元数据出发,支持查询、搜索、获取 Tokens 等能力。

AI与计算

Gmail MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型(LLM)客户端提供 Gmail 相关工具的统一访问接口,支持 JSON-RPC 请求/响应,工具注册与执行,并通过标准化的 MCP 通信传输(如标准输入输出)进行交互。

AI与计算

WinForensics MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供标准化的上下文服务给 LLM 客户端。该服务器托管和管理用于取证分析的资源与数据访问能力、注册并执行工具以调用外部功能,并定义与渲染可定制的 Prompt 模板,支持 JSON-RPC 通信、会话管理以及多传输协议扩展,为跨平台取证分析与 AI 辅助分析提供安全、可扩展的上下文服务框架。

网页与API

CTFd MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器,向大模型客户端提供 CTFd 资源、挑战详情、提交旗帜以及统一的容器管理等功能,并通过 JSON-RPC/多传输通道方式与客户端进行交互。}

网页与API

Site-Calc Investment MCP Server

基于 Model Context Protocol (MCP) 的本地化投资规划后端服务器,提供资源管理、工具执行和提示模板渲染等 MCP 服务,通过 JSON-RPC 与 LLM 客户端通信,支持 Claude Desktop 集成与本地数据保存等功能。

AI与计算

Tabularis MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与数据访问、工具注册与执行、以及用于 LLM 的 Prompt 模板渲染。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(Stdio)传输,读取客户端请求并输出响应;同时具备会话管理、能力声明与资源/工具渲染等核心能力,便于外部代理或图形化客户端接入以提供上下文信息与外部功能调用。

AI与计算

Transactoid MCP 服务端

基于 Model Context Protocol(MCP)的后端服务,向 AI 客户端以标准化方式暴露 Transactoid 的工具、资源与提示模板,提供会话管理、数据访问、工具执行以及 Prompts 渲染等能力,方便与 Claude Code、其他 MCP 兼容客户端进行集成。

AI与计算

Arctic MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器端实现,提供资源(Resources)托管与管理、工具(Tools)的注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端进行安全、可扩展的上下文服务交互,支持多传输协议(如 Stdio、SSE、WebSocket)和会话管理等核心能力。

AI与计算

mssql-mcp-server

基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。

网页与API

Scrapfly MCP Server

基于 Model Context Protocol(MCP)的后端服务器,实现对资源、工具和提示模板的注册、管理与执行,提供给大型语言模型(LLM)客户端实时、可扩展的网页上下文服务与数据访问能力。

AI与计算

SynthFlow MCP 服务器

基于 Model Context Protocol (MCP) 的本地服务器实现,提供以 JSON-RPC 方式与客户端通信的能力,暴露工具调用入口并可扩展资源与提示等能力

AI与计算

NiceVibes MCP 服务器

基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。

AI与计算

Klondike MCP Server(Klondike Spec CLI)

基于模型上下文协议(MCP)的后端实现,向 MCP 客户端暴露 Klondike Spec 的资源、工具和提示模板等能力,并通过 JSON-RPC 形式处理请求与响应,支持多传输协议用于与大型语言模型的无缝对接。

AI与计算

Von MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,用标准化的 JSON-RPC 形式向 LLM 客户端暴露资源、注册和执行 Tools,以及 Prompt 模板的渲染与管理,核心包含会话管理、能力声明与对多传输协议的支持,旨在为 LLM 应用提供可扩展、可验证的上下文服务。

AI与计算

MarkdownSpecs MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供对本地 Markdown 规格文档的资源管理、工具调用以及基于向量检索的语义检索能力,便于将文档内容以标准化方式提供给大语言模型客户端。实现了资源读取、目录查询、全文搜索、按标签筛选、以及语义搜索等核心功能。

AI与计算

OpenMarkets MCP 服务器

基于 Model Context Protocol 的后端服务器,向大型语言模型客户端提供资源、工具和提示模板等上下文与功能,并通过 JSON-RPC 进行通信与协作。

AI与计算

SentryFrogg MCP 服务器

基于 Model Context Protocol (MCP) 的 STDIO 交互后端,为大语言模型客户端提供资源管理、工具注册/执行以及提示模板渲染的统一上下文服务。

AI与计算

Shannot MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供资源、工具与提示等上下文能力,并通过 JSON-RPC 在标准输入输出传输通道进行通信,支持本地及远程执行场景的脚本运行、会话管理与审计日志记录。

AI与计算

Savant Model Context Protocol 服务器

基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。

AI与计算

poly-queue-mcp

基于 Model Context Protocol 的后端服务器,统一暴露多种消息队列适配器作为工具,向 LLM 客户端提供资源、工具执行与 Prompts 渲染的上下文服务。

AI与计算

poly-secret-mcp

基于 Model Context Protocol(MCP)的后端服务器,聚合 Vault、SOPS 等密钥/机密管理工具的工具接口,向大语言模型(LLM)客户端提供以 JSON-RPC 形式调用的密钥读取、写入等操作的统一入口,并支持通过标准化传输(如 STDIO)进行交互。

开发者工具

Claude Code Workflow MCP 服务器

基于 Claude Code Workflow 的 MCP 服务器实现,使用 JSON-RPC 与客户端通信,核心职责是托管资源、注册工具、定义并渲染 Prompt 模板,为 LLM 客户端提供可扩展的上下文服务。

AI与计算

MineContext MCP Server

基于 MCP(Model Context Protocol)的服务器实现,暴露 minecontext_screen_context 工具以供 MCP 客户端读取 MineContext 摘要并进行后续的 LLM 推理分析等。该仓库提供通过 FastMCP 构建的 MCP 服务端,能够接收请求、返回结构化上下文摘要,并与本地 MineContext 服务对接。

数据库与文件

QueryGenie PostgreSQL MCP Server

基于模型上下文协议(MCP)的 PostgreSQL 只读服务器实现,向LLM客户端提供结构化数据库资源、工具注册与提示渲染能力,通过JSON-RPC风格的MCP接口进行交互,支持多数据库只读查询、模式描述、索引/外键查询以及健康监控等功能。

AI与计算

SWAT-Copilot MCP Server

基于 Model Context Protocol 的后端服务器,实现对 SWAT 项目资源、分析工具、输出数据以及文档检索等能力的统一对外服务,供大语言模型客户端通过 MCP 协议进行上下文信息获取、工具执行与结果展示。

AI与计算

cl-mcp — Common Lisp MCP 服务器实现

基于 Common Lisp 的 MCP(Model Context Protocol)服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,并通过 JSON-RPC 进行请求/响应。支持多种传输协议(stdio、TCP、HTTP),为大语言模型(LLM)客户端提供可扩展、可安全的上下文服务框架。

AI与计算

Gateway-Mcp

一个将多个上游 MCP 服务器聚合为少量顶层工具的 MCP Gateway,旨在让 LLM 客户端通过少量工具访问多服务,同时维护会话与工具列表等能力,提升上下文利用效率与扩展性。

AI与计算

OOREP MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具注册与执行、以及提示模板渲染,向大语言模型客户端提供可扩展且结构化的上下文服务与数据访问能力。

开发者工具

Copilot Prompts MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具执行、提示模板及编码规范的整合与渲染,通过 JSON-RPC 与 MCP 客户端通信,支持跨平台传输,向 LLM 客户端提供统一的上下文信息和自动化规范服务。

AI与计算

Carbon MCP Server

基于 Model Context Protocol (MCP) 的服务端实现,作为后端上下文与功能提供者,向 LLM 客户端暴露资源访问、工具注册/执行以及可渲染的对话模板能力。通过 JSON-RPC/HTTP 交互方式,整合资源管理、工具执行与上下文管理,支持会话与多种传输模式的后端服务框架。

网页与API

Borsa MCP Server

基于 MCP 协议的后端服务,面向 LLM 客户端提供金融资源、工具与提示模板的标准化上下文与功能,通过 JSON-RPC 进行交互,并支持多传输协议与会话管理的可扩展 MCP 服务器实现。

AI与计算

News Desk MCP 服务器(Python 实现)

基于 MCP 协议的后端服务器实现,向大语言模型客户端以统一的 JSON-RPC 方式暴露新闻检索与全文获取等工具,方便在对话中调用外部功能、获取上下文信息与执行相关任务。

AI与计算

Douyin MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供抖音视频的解析、无水印下载、信息查询等工具和资源,让大语言模型客户端以标准化方式访问并执行相关功能。

AI与计算

AutomatosX

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 AI 客户端的上下文服务中心,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输协议以便进行安全、可扩展的上下文服务。

AI与计算

Cortex Memory MCP Server

基于模型上下文协议(MCP)的服务器实现,提供内存管理、工具注册/执行和提示模板的后端服务,通过 JSON-RPC 与 LLM 客户端进行通信,支持与各种后端组件协同工作,便于在代理代理的对话系统中提供上下文性与功能性支持。

桌面与硬件

Things 3 任务管理助手 (MCP)

一个基于 Model Context Protocol (MCP) 的服务器,让 LLM 客户端(如 Claude Desktop)与 macOS 上的 Things 3 任务管理应用进行交互,实现任务的智能创建、分析与管理。

开发者工具

Airlift MCP 服务器框架

基于 Airlift 框架构建的 MCP 服务器实现,提供上下文信息、工具和 Prompt 管理,支持 LLM 客户端通过 JSON-RPC 协议进行交互。

AI与计算

Cato MCP API 工具服务器

连接AI助手与Cato API,提供网络管理数据的MCP服务器。

AI与计算

Pluggy MCP 服务器

基于 MCP 协议,提供通过 Pluggy API 访问用户金融账户和连接器列表的功能。

生产力应用

本地AI请假管理器 MCP 服务

基于MCP协议的本地请假管理后端,提供查询余额、申请请假和查看历史等工具功能,通过OpenAPI集成至LLM客户端。

AI与计算

Blitzlane Python MCP 服务器

为大模型(LLM)客户端提供基于 MCP 协议的 Solana 区块链工具集。

AI与计算

Fastify MCP 工具插件

将 Fastify 框架的 API 路由自动转换为 MCP 工具,供 LLM 客户端调用。

开发者工具

Android MCP 服务库

使 Android 应用能够托管 MCP 服务器,向 LLM 客户端提供设备和应用上下文信息。

商业系统

Salesforce MCP 服务器

将大型语言模型 (LLM) 连接到 Salesforce 环境,安全提供组织、数据、用户和元数据等功能访问。

开发者工具

Roblox Studio MCP 服务器

将 Roblox Studio 与 LLM 客户端连接,提供上下文和工具调用能力。

AI与计算

Scorecard MCP 服务器

通过 Model Context Protocol (MCP),使 Claude 等 LLM 客户端能够安全访问 Scorecard 的模型评估工具。

AI与计算

PayAI MCP 服务器

将 PayAI AI 代理市场集成到支持 MCP 协议的 LLM 客户端中,允许查看和雇用 AI 代理。

AI与计算

Apollo MCP 服务器

将 GraphQL API 操作转化为大型语言模型 (LLM) 可调用的 MCP 工具,连接 LLM 与外部数据和服务。

生产力应用

ONLYOFFICE DocSpace MCP 服务器

该项目是基于 Model Context Protocol (MCP) 构建的服务器,使大型语言模型 (LLM) 客户端能够与 ONLYOFFICE DocSpace 平台进行交互,主要提供工具调用功能。

AI与计算

Node.js上的.NET WebAssembly MCP服务器

一个在Node.js环境下通过WebAssembly运行.NET ASP.NET Core实现Model Context Protocol (MCP) 服务器的基础示例。

生产力应用

Google Calendar MCP 服务器

一个基于 Model Context Protocol (MCP) 的服务器,连接 LLM 客户端到 Google Calendar 进行事件管理。

商业系统

Tableau VDS MCP 服务器

通过 MCP 协议,将 Tableau 数据服务功能暴露给 LLM 客户端使用。

开发者工具

Zerocracy MCP 服务器

将 Zerocracy 服务能力以 MCP 协议方式暴露给 LLM 客户端,提供特定工具功能。

AI与计算

Datavizion RAG

基于 Datavizion 应用的 RAG 后端,通过 MCP 协议提供文档检索与 LLM 问答服务。

开发者工具

SDKMAN! MCP 后端服务

提供 SDKMAN 软件开发工具包管理器功能,允许通过 MCP 协议管理不同版本的 SDK。

商业系统

Square API MCP 服务器

基于 Model Context Protocol 的服务器,提供对 Square Connect API 的标准化访问,赋能大型语言模型与 Square 商业数据和功能交互。

数据库与文件

Snowflake 数据 MCP 服务器

连接 LLM (如 Claude) 与 Snowflake 数据库,提供安全的只读数据查询能力。

开发者工具

MCProx OpenAPI 代理生成器

通过 OpenAPI 规范快速生成 MCP 服务器代理,使现有 API 轻松对接 LLM。

AI与计算

gateway

CentralMind Gateway是一个AI优先的数据网关,可以为LLM应用自动生成安全的、优化的API,并实现了Model Context Protocol (MCP) 服务器功能,支持LLM客户端进行上下文交互。

开发者工具

Railway

Railway MCP Server是一个MCP服务器,允许LLM客户端通过自然语言管理Railway.app云基础设施,包括项目、服务、部署和变量等资源。

数据库与文件

Supabase

此项目是一个 Supabase MCP 服务器,允许 LLM 通过 Model Context Protocol 协议查询 Supabase 数据库和生成 TypeScript 类型定义。