返回首页

"工具调用" 标签

571 个结果

标签搜索结果

网页与API

VerifiMind-PEAS MCP Server

基于 Model Context Protocol 的 VerifiMind-PEAS MCP 服务器实现,提供 X-Z-CS RefleXion Trinity 的多模型评审、资源与工具管理,并通过 JSON-RPC 的 MCP 协议与客户端通信。

AI与计算

Dorothy MCP 服务器集成

基于 Model Context Protocol (MCP) 的多服务端 MCP 实现集合,提供资源管理、工具执行、自动化和 Kanban/Vault 等功能,以便向 LLM 客户端提供统一的上下文服务和能力调用接口。

网页与API

AgEnFK MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,实现资源、工具和提示模板的统一托管与执行,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输方式(如标准输入输出、SSE、WebSocket)以提供可扩展的上下文服务。该仓库包含完整的 MCP 服务端实现及与本地后端的对接逻辑。

AI与计算

Synaptiq MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务,向大语言模型(LLM)客户端提供结构化的代码上下文、资源和工具,采用 JSON-RPC 进行请求/响应通讯,支持多传输协议并实现会话管理、能力声明与跨语言知识图谱查询等能力,适合在本地离线环境中为 AI 代理提供代码洞察与自动化工具执行能力。

开发者工具

Zendesk 上下文服务 MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,暴露 Zendesk 的资源、操作与查询为可由 AI 客户端调用的工具集合,支持通过标准 MCP 传输(如标准输入输出)与客户端进行 JSON-RPC 通信,提供会话管理和可扩展的上下文服务框架。

AI与计算

PePeRS MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大语言模型客户端提供统一的资源访问、工具调用和提示模板渲染能力;通过 JSON-RPC/HTTP+SSE 等协议与客户端通信,支持多传输协议、会话管理与能力声明,便于将上下文、工具和提示模板整合到 LLM 工作流中。

网页与API

Claude MCP 后端服务集合

基于 Model Context Protocol (MCP) 的多实现服务器集合,提供资源管理、工具注册与执行、以及提示模板渲染等上下文服务,供大语言模型客户端通过标准化的接口进行上下文数据访问与外部功能调用。

AI与计算

Random Number MCP

基于 Model Context Protocol 的随机数工具 MCP 服务器实现,提供随机整数、随机浮点数、带权随机、打乱、取样,以及安全令牌和加密随机整数等工具,面向大模型客户端提供一致的工具调用能力和 JSON-RPC 交互。

AI与计算

LLM Energy MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行、以及提示模板渲染等能力,向 LLM 客户端以标准化的 JSON-RPC 方式提供文档提取与上下文服务。

AI与计算

NexusCode MCP Knowledge Server

基于 Model Context Protocol (MCP) 的后端服务,向多种 LLM 客户端暴露可索引的资源、可执行的工具,以及可渲染的 Prompt 模板,提供标准化的 JSON-RPC/SSE/WebSocket 交互,用于资源访问、工具调用和上下文模板渲染,并支持会话管理与安全认证以服务化地为代码库提供上下文和功能服务。

AI与计算

Claude Sidecar MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供标准化的上下文资源、可调用的工具(Tools)以及可渲染的 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输通道(如标准输入/输出、SSE、WebSocket 等)实现安全、可扩展的上下文服务。

AI与计算

Khoregos 模型上下文服务端

基于 Model Context Protocol 的后端实现,为大型语言模型客户端提供规范化的上下文资源、工具执行和提示渲染能力,支持与客户端通过 JSON-RPC 通信并实现会话、能力声明与多传输适配的后端服务。

AI与计算

Renfield MCP 后端服务器

基于 Model Context Protocol (MCP) 的自托管后端,提供资源管理、工具注册与执行,以及 Prompt 模板定义与渲染,并通过 JSON-RPC/REST 与 LLM 客户端进行标准化的上下文提供与功能调用。系统支持会话管理、能力声明,并可通过多种传输协议与扩展插件扩展以服务多种 MCP 客户端场景。

开发者工具

Kubani MCP 服务器端

基于 Model Context Protocol(MCP)的 Kubani 服务器端实现,提供资源与工具的暴露、MCP 的工具调用,以及对外提供的服务器能力声明,支持通过标准的 JSON-RPC 进行客户端请求与响应,适配多种传输方式(如 Stdio、SSE 等)以向 LLM 客户端提供上下文与功能服务。

AI与计算

Mu MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行以及提示模板渲染,并通过 JSON-RPC 与 MCP 客户端通信,支持多种传输与会话管理。

AI与计算

Jeha MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 Zigbee2MQTT 的场景,通过 JSON-RPC 提供 Tools、Prompts 等能力以供大语言模型调用和上下文服务。

AI与计算

Aleph MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC/多传输协议与 LLM 客户端进行通信的服务器端上下文服务框架。

AI与计算

eShopLite MCP SSE Server

一个基于 MCP 的服务器实现,提供商品场景的语义搜索、工具调用和向量存储等能力,并通过 SSE 传输与客户端通信的 MCP 服务器实现示例。

网页与API

Stacklume MCP Server

基于 Model Context Protocol (MCP) 的 JSON-RPC MCP 服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)的托管与管理,并通过统一的 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输场景。仓库中包含用于 MCP 校验的工具定义、JSON-RPC 路由实现,以及在 Next.js 环境下的服务器端实现代码。该实现不仅提供客户端调用示例,还实现了服务端的鉴权、能力声明与请求分发等核心功能。<div align="center">(MCP 服务器核心功能在 src/app/api/mcp/route.ts,可处理 initialize、tools/list、tools/call、ping 等方法并返回标准 JSON-RPC 响应。)</div>

AI与计算

Marionette MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示的托管与管理,通过 JSON-RPC 与 LLM 客户端通信;整合 Claude Code、WebSocket 通信、实时会话监控与 API 代理等组件,实现可扩展的上下文服务框架。

AI与计算

Augent MCP 服务器

基于 Model Context Protocol 的本地音频处理后端,提供资源、工具、提示模板等上下文服务,并通过 JSON-RPC 与 MCP 客户端交互,实现对转写、检索、裁剪等功能的统一访问。

AI与计算

Software Factory MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行、Prompt 模板渲染等核心 MCP 功能,供 LLM 客户端通过 JSON-RPC 进行资源访问、工具调用与提示渲染等操作。

AI与计算

Pierre MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板的标准化管理与 JSON-RPC 通信,支持多传输协议、会话管理与权限控制,为大型语言模型提供可扩展的上下文服务。

AI与计算

Harmonica MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,暴露 Harmonica 会话管理、数据查询与 AI 助手工具给 LLM 客户端,使用 JSON-RPC 进行通信,并支持多种传输方式(如 Stdio)以提供可扩展的上下文服务。

网页与API

Huppa MCP 服务端(huppa-cli)

基于 Model Context Protocol(MCP)的后端实现,为 Huppa 提供 gym 课程查询、预订、等待名单、会员信息等资源的统一访问与工具执行能力,供大型语言模型(LLM)通过 MCP 进行上下文获取和任务执行。

AI与计算

Claude Plugins MCP 服务器合集

这是一个包含多个基于模型上下文协议(MCP)的服务器实现的插件集,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 MCP SDK 的 JSON-RPC 与客户端进行交互,适用于 Claude Desktop 的上下文服务与插件化扩展场景。

AI与计算

Chibi MCP Bridge 服务器端实现

基于 Model Context Protocol (MCP) 的服务器端实现,作为 MCP 客户端与后端 MCP 服务之间的桥接层,提供对 Tools 的发现、调用和输入/输出模式的支持,并通过 JSON-RPC 与客户端通信,支持本地 STDIO 与 Streamable HTTP 等传输方式的接入。

AI与计算

MemoryMesh 上下文服务端实现

基于 Model Context Protocol(MCP)的后端服务器,实现资源、工具与 prompts 的管理与执行,提供标准化的 JSON-RPC 风格请求/响应,并通过 stdio 传输与 MCP 客户端对接,同时集成 DynamoDB 存储以管理上下文数据。

AI与计算

Agoragentic MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,向 MCP 客户端提供 Agoragentic 市场的能力、资源、提示等上下文服务与执行能力,并通过 JSON-RPC 与客户端通信。

AI与计算

Blinky Serial MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,用于通过 JSON-RPC 与 LLM 客户端协同,管理多设备串口资源、注册并执行工具(Tools)、以及提供动态的提示/模板渲染能力,核心在于为 AI 应用提供统一的上下文和外部功能访问接口。

开发者工具

AI MCP 服务器示例(FastMCP 实现)

基于 FastMCP 的 MCP 服务器实现示例,展示如何通过装饰器暴露工具函数、在 STDIO/HTTP 传输下提供标准化的 MCP 服务,并为 MCP 客户端提供资源、工具、提示等上下文能力的运行示例。

AI与计算

RuVector MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 RuVector 生态的一部分,负责通过标准化的 JSON-RPC 向 LLM 客户端提供上下文信息和功能。核心职责包括托管与管理 Resources(资源数据访问)、注册并执行 Tools(工具调用)、定义与渲染 Prompts(提示模板),并支持多传输协议(如 Stdio、SSE、WebSocket)。服务器端负责会话管理、能力声明与扩展性配置,适配多种客户端场景,提供安全、可扩展的上下文服务框架,支持与 RuVector 其他组件的无缝对接。

网页与API

OpenFang MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现:提供资源托管、工具注册/执行、以及提示模板的定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行标准化上下文服务交互(资源访问、工具调用、Prompts 获取/渲染等),支持多传输协议以实现安全、可扩展的上下文服务框架。

AI与计算

Thoughtbox MCP 服务器

基于 Model Context Protocol (MCP) 的多代理协作型后端服务器,提供资源管理、工具注册与执行、以及可渲染的提示模板,通过 JSON-RPC 与客户端通信,并具备会话管理、观测性与多传输协议支持(如 Stdio、SSE、HTTP)。

AI与计算

Eurus ERA5 MCP 服务器

基于 Model Context Protocol 的 MCP 服务端,提供 ERA5 气候数据的资源管理、工具执行与 Prompt/模板渲染等能力,并通过 JSON-RPC 形式与 LLM 客户端(如 Claude Desktop、IDE 等)进行通信。

AI与计算

CodeIntel MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供资源访问、工具调用和可渲染的提示/上下文模板,支持多种传输方式(stdio、Streamable HTTP),通过 JSON-RPC 与客户端通信并实现会话管理和能力声明。

AI与计算

envpkt MCP 服务器

基于 Model Context Protocol 的后端服务器,向 LLM 客户端提供凭证元数据、工具和资源信息,并通过 JSON-RPC 进行通信,便于在对话中查询和执行外部功能。它包含资源管理、工具注册与调用、以及轻量的提示/模板能力支撑,适配多种传输方式。

AI与计算

DeepSeek MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的统一上下文服务,支持多模型回退、会话管理、功能调用、JSON 输出、以及多传输协议(stdio 与 HTTP)等特性。

AI与计算

ImmyGo MCP 服务器

基于 Model Context Protocol (MCP) 的 JSON-RPC 服务器实现,提供 immygo_widget_catalog、immygo_generate_code、immygo_search_docs 等工具,供 Claude Code、Cursor 等 MCP 客户端通过标准 MCP 流式/非流式请求进行调用与协作。该仓库同时包含可运行的 MCP 客户端接入示例,形成完整的服务端与客户端配合方案。

网页与API

ApiTap 基于 Model Context Protocol 的后端 MCP 服务器实现

一个实现 MCP(Model Context Protocol)的后端服务器,提供资源管理、工具注册、Prompt 定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议,面向将网站/数据源暴露为可被 LLM 调用的上下文服务的场景。

AI与计算

memorybox

基于 MCP 的后端服务器,为 AI 代理提供持久化记忆、数据访问和工具执行能力;通过本地 SQLite 库存储并可跨会话检索记忆,集成五个 MCP 工具以进行存储、检索、召回、删除和列出记忆的操作。

AI与计算

llmkit MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,用于在 LLM 客户端与代理/资源之间提供可扩展的上下文服务。该服务器实现了工具注册与执行、成本/预算相关查询、会话摘要等 MCP 功能,支持通过 JSON-RPC 与客户端通信,并能够暴露“健康/状态”等查询能力,便于 Claude Code/Cursor 等工具进行上下文协作。

AI与计算

MCP Factory

基于 MCP 的后端生成与托管框架,能够从 Windows 二进制/脚本等自动生成符合 MCP 标准的服务器,提供资源托管与数据访问、工具注册与调用,以及 Prompt 模板渲染等能力,并通过 HTTP/JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互。

AI与计算

RayClaw MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的标准化管理与渲染,支持通过 JSON-RPC 进行通信,能够使用stdio和流式HTTP等传输、并具备协议协商、健康检查和工具缓存等完整服务器能力。

AI与计算

General Translation MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的标准化管理与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 STDIO)以为 LLM 应用提供安全、可扩展的上下文服务。

AI与计算

Libra MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Libra 项目的一部分,向 LLM 客户端以标准化方式提供上下文信息与能力:托管并管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端进行通信,支持多种传输通道(如 Stdio、SSE、WebSocket),实现会话管理与能力声明,便于 AI 场景下的上下文服务与功能扩展。

AI与计算

Xenobot MCP 服务器

基于 Model Context Protocol 的后端实现,提供资源托管与访问、工具注册与执行,以及面向 LLM 的 JSON-RPC 通信,并通过 WebSocket、SSE 与 HTTP 传输协议与客户端交互。

开发者工具

Aegis MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供对本地 Aegis Agent Kit 的 MCP 接口,允许对实例管理、秘密、工具调用等功能进行统一的 JSON-RPC 访问,并与本地 aegisd/Aegis 运行时无缝协作以驱动 LLM 客户端的上下文能力获取与任务执行。

AI与计算

Adjutant MCP 服务器

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源管理、工具注册/执行、Prompts 渲染等能力,采用 JSON-RPC 与客户端进行通信,支持 SSE/WebSocket 等传输模式,供 LLM 客户端获得上下文与外部功能访问。

网页与API

Kiln MCP 服务器

Kiln 是一个基于 Model Context Protocol 的 MCP 服务器端实现,负责向 LLM 客户端以标准化方式提供上下文信息、资源访问、工具注册与执行,以及提示模板渲染,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议,适配多种打印后端与外部服务。

AI与计算

SpaceMolt Crafting MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 SpaceMolt 相关的资源、工具与提示模板,并通过 JSON-RPC 的机制实现对资源、工具、提示等的标准化访问与渲染。

AI与计算

NeuralMemory MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的服务器实现,提供资源、工具、提示模板等的统一托管、注册与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(标准输入/输出、Server-Sent Events、WebSocket),为大语言模型客户端提供安全、可扩展的上下文服务框架。

网页与API

Vincent MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器端提供对外的上下文服务。核心职责包括托管与管理资源(Resources)、注册与执行工具(Tools),以及定义与渲染 Prompt 模板,支持与 LLM 客户端通过 JSON-RPC 进行交互。服务器实现了 MCP 的核心接口(如 initialize、tools/list、tools/call),并通过 Bearer API key 进行鉴权、会话管理与策略检查,提供基本的 JSON-RPC 请求处理和响应。代码基于 Node.js + TypeScript,使用 Express 路由挂载在 /mcp 路径,并结合 Prisma 管理数据。

AI与计算

TaxPilot — Intelligent Context MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端提供资源、工具和 Prompts,并通过 JSON-RPC/SSE 等协议实现统一的上下文服务与对话管理。

AI与计算

Loom MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持本地或混合模型的上下文服务和执行能力。该仓库包含可运行的服务器端实现及相关集成组件,不仅是客户端示例或测试代码。

网页与API

Nosible MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源、工具与 Prompts 的统一对外入口,面向 LLM 客户端提供可扩展的上下文与数据能力。

AI与计算

GemiHub MCP Server Backend

基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具与提示模板的托管与管理,并通过 JSON-RPC 提供对外访问,供 LLM 客户端检索资源、调用工具、渲染提示并进行会话管理与能力声明。

AI与计算

AgentVault MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,暴露 AgentVault 的工具、资源与提示模板的标准化访问与执行能力,支持通过 JSON-RPC 的 MCP 客户端进行资源读取、工具注册/执行及提示模板渲染,并可通过 AFAL/Inbox 传输实现为 LLM 应用提供受控的上下文服务框架。

AI与计算

CodingBuddy MCP 服务器

基于 Model Context Protocol 的后端服务器实现,用于以标准化方式向 LLM 客户端提供上下文信息与功能:托管资源、注册与执行工具、定义与渲染 Prompt 模板,且通过 JSON-RPC 与客户端通信,支持多种传输协议并具备会话管理能力。

AI与计算

Xcode MCP 桥接包装器

基于 Model Context Protocol (MCP) 的后端服务器实现,把 Xcode 的 MCP bridge 接入生态(如 Cursor、Claude、Codex 等)进行上下文资源管理、工具调用注册与执行,以及提示模板的渲染,提供标准化的 JSON-RPC 通信、会话管理与多传输支持,并附带可选的 Web UI 仪表盘与 Broker 模式以共享 upstream bridge。

网页与API

TrustChain MCP 服务器

基于 TrustChain 的 MCP 服务器实现,提供按 Model Context Protocol (MCP) 规范管理资源、注册工具并渲染提示模板的后端服务,通过 JSON-RPC 方式与 LLM 客户端进行上下文信息与功能调用的标准化交互。支持工具注册、资源访问、PROMPT 管理以及会话与多种传输协议的扩展能力,帮助 llm 应用方安全地获取可验证的上下文与功能。无论就地嵌入还是独立部署,该实现均可为 Claude Desktop 等客户端提供 MCP 服务。

商业系统

Trade Agent MCP Server

基于 Model Context Protocol (MCP) 的跨境电商后端服务器实现,提供购物车、订单、物流、邮件等工具的暴露与调用,通过 SSE 与 MCP 客户端进行 JSON-RPC 风格的通信,并具备会话管理、技能中间件与日志持久化能力。

AI与计算

ACK Protocol MCP Server

基于模型上下文协议(MCP)的后端服务实现,提供以标准化 JSON-RPC 形式通过 SSE 传输向 LLM 客户端提供上下文信息、资源、工具以及提示模板等能力,支持多工具调用与资源查询等 MCP 核心功能。

AI与计算

HyperHierarchicalRAG MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供知識圖譜、超圖记忆、工具执行和提示模板等能力,供 LLM/Agent 以标准化 JSON-RPC 方式进行资源访问、工具调用与提示渲染的后端服务。

AI与计算

Project Orchestrator MCP 服务端

基于 MCP 协议的后端服务,为大语言模型客户端统一提供资源、工具和提示模板的上下文服务,支持多传输协议、会话管理与可扩展的工具与模板渲染能力。

AI与计算

Cairn MCP 服务端

基于 Model Context Protocol 的后端服务器,提供资源管理、工具执行与提示模板渲染,并通过 JSON-RPC MCP 协议向 LLM 客户端提供可扩展的上下文服务,支持 STDIO、HTTP、WebSocket 等传输方式与 REST 辅助接口。

AI与计算

claude-skills-vault

基于 Model Context Protocol (MCP) 的服务器集合,提供资源访问、工具注册与执行,以及对话/上下文能力的标准化后端,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用与提示渲染等操作。

AI与计算

PMOVES-BoTZ Docling-MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供文档处理资源、工具注册与执行、以及 Prompt/模板的上下文服务,支持通过 STDIO、HTTP/SSE 等传输协议与 LLM 客户端进行 JSON-RPC 通信,并具备健康检查、会话管理与多传输能力的后端服务框架。

AI与计算

MCP 后端服务示例:资源与工具协同服务器

基于模型上下文协议(MCP)的后端服务器实现,提供本地资源管理、外部工具调用和提示渲染,支持与LLM客户端通过JSON-RPC进行交互,具备SQLite持久化与外部天气API查询等功能。

网页与API

NLWeb MCP 服务器接口

基于 NLWeb 的 MCP 服务器实现,提供资源、工具和提示模板的标准化访问,并通过 JSON-RPC 与客户端通信,将请求转发到 NLWeb 后端实现具体功能。

AI与计算

Ragtime 服务器端(MCP 服务实现)

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具与提示模板的标准化暴露,支持 HTTP 流式传输与 stdio 传输等多种传输方式,供各类 LLM 客户端(如 Claude Desktop、VS Code Copilot、OpenWebUI 等)进行工具调用与上下文查询。

AI与计算

Agentic-Ray MCP 服务端实现

基于 Ray Serve 的 MCP(模型上下文协议)服务端实现,提供注册、管理与暴露 MCP 服务器的能力,并通过 HTTP/JSON-RPC 风格接口与客户端进行资源读取、工具调用与请求渲染等交互,同时支持通过侧车代理实现对外部 MCP 服务器的访问控制与转发。

AI与计算

AI Gateway MCP 服务器实现合集

基于 Model Context Protocol (MCP) 的企业级后端服务集合,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,用于向大语言模型客户端提供上下文与外部功能访问。仓库中包含多种以 MCP 为核心的服务器实现示例,支持不同传输方式(SSE、HTTP、stdio 等)与部署场景,覆盖从工具注册到调用、以及与外部系统的集成等完整场景。

网页与API

Agent Framework MCP Server 集合

基于 Model Context Protocol (MCP) 的后端服务实现,为大型语言模型客户端提供统一的上下文资源、工具调用和提示模板渲染能力,并通过 JSON-RPC 进行通信,支持多服务器协作(如 JIRA、GitHub 及任务队列等)。

AI与计算

axios-ai-mail MCP Server

基于模型上下文协议(MCP)的后端服务器实现,为LLM客户端提供对邮件资源、工具执行以及提示模板的标准化服务,支持通过JSON-RPC风格的通信与多传输协议协作(如 STDIO/WebSocket),实现邮件上下文的管理与自动化工作流。

AI与计算

mcp-for-mcv

基于 FastMCP 的 MCP 服务器实现,为 MyCourseVille 提供上下文资源、工具执行和提示模板的后端服务,面向与 LLM 客户端的标准化上下文服务。

网页与API

Open MCP App 服务器实现

基于 MCP Apps 规范的后端服务实现,提供资源的注册与管理、工具的注册与执行、以及按规范渲染与传递 UI 资源,支持多主机环境并通过 JSON-RPC 与客户端通信,包含服务端核心逻辑、中间件、实验性扩展与测试用例。

AI与计算

openai-responses-mcp

基于 Model Context Protocol (MCP) 的轻量级后端服务器,提供对 LLM 客户端的上下文服务(资源、工具、提示等),通过 JSON-RPC 进行通信,支持以标准化方式读取资源、注册并执行工具、渲染 Prompt 模板,核心实现包含服务器端的请求/响应处理、会话管理与多传输协议支持(以 stdio 为核心的实现,具备行分隔及 Content-Length framing 方式)。

桌面与硬件

TalkToFigma Desktop MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和提示模板的管理与执行,通过 JSON-RPC 与客户端通信,支持多种传输协议(stdio、WebSocket、SSE),用于向大语言模型(LLM)提供可扩展的上下文服务。

AI与计算

Mira MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具调用与提示模板渲染的标准化上下文服务,并通过 JSON-RPC 与 Claude Code 等客户端交互,支持可扩展的传输模式与会话管理。

AI与计算

LingYiProject MCP 服务端

基于模型上下文协议(MCP)的后端服务器,提供资源与工具的托管、远程工具调用、提示模板管理,以及面向LLM客户端的标准化上下文服务,支持多种传输与会话管理模式。

AI与计算

SkillLite MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,负责向 LLM 客户端以标准化格式提供技能资源、工具注册与执行、以及 Prompt 模板的渲染,支持会话管理、能力声明,并通过 JSON-RPC 与客户端进行通信,具备沙箱化执行、工具调用以及多传输协议的能力。该实现包含服务器端逻辑、工具/技能管理、以及对外暴露的 MCP 接口,属于服务器端实现而非仅仅的客户端示例。

AI与计算

Neo4j MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 Neo4j 资源访问、工具执行和提示模板渲染等能力,采用 JSON-RPC 进行通信,支持 STDIO 和 HTTP 传输模式,为大语言模型(LLM)应用提供标准化的上下文和功能服务。

AI与计算

npcpy MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具与提示模板的托管、注册与渲染,并通过 JSON-RPC 风格接口与客户端交互,支持会话管理、能力声明与多种传输方式(如 StdIO、SSE、WebSocket)。

开发者工具

Assay MCP服务器

基于Model Context Protocol的高安全性策略执行和上下文管理后端服务器,实现LLM应用的资源管理、工具调用及交互模板支持。

AI与计算

Officetracker MCP 服务端

基于 Model Context Protocol(MCP)的后端实现,提供资源、工具和提示模板的上下文服务,供 LLP/LLM 客户端通过 JSON-RPC 方式访问办公室出勤数据,并在 HTTP 端点 /mcp/v1/ 提供 MCP 服务能力与工具执行能力。

AI与计算

MCP Gitea 服务端

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Gitea 实例的资源、工具与提示模板等上下文能力,支持资源访问、工具调用与提示渲染。

AI与计算

FluidMCP

基于 Model Context Protocol 的多 MCP 服务器后端网关,提供统一的 JSON-RPC 服务来托管资源、注册工具并渲染提示模板,通过 FastAPI 将多个独立 MCP 服务器整合为一个可扩展的上下文服务入口。

桌面与硬件

MCPxHub

基于 Model Context Protocol 的本地 MCP 服务器实现,提供工具调用、资源访问和提示模板的统一接口,连接本地 IDE 与大型语言模型客户端。

AI与计算

Claude Code Telegram MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源访问、以及与 LLM 的对话上下文渲染等核心能力。通过 JSON-RPC 与客户端通信,采用 STDIO 传输实现本地进程间通信,适用于 Claude Code 的 Telegram 插件后端场景。该实现涵盖工具调用、批量通知、审批流、AFK/监听等功能模块,具备完整的服务端能力与测试用例。

AI与计算

MCPU - MCP 服务器框架

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。

AI与计算

Silo 本地 MCP 服务器

基于 Rust 的本地 Model Context Protocol (MCP) 服务器,提供握手初始化、工具注册与调用,以及本地文件系统相关辅助功能,面向 LLM 客户端通过标准 JSON-RPC 在本地环境获取上下文信息与可执行工具

AI与计算

Cortex MCP 服务器

Cortex 的 MCP 服务器实现,向 MCP 客户端以标准化的 JSON-RPC 方式暴露工具与对话能力,并通过内置的 Agent 引擎实现对话上下文管理与工具调用。

AI与计算

Ada MCP 服务器实现

基于 Model Context Protocol(MCP) 的后端服务,作为本地大模型应用的上下文提供者。该服务器托管与管理 Resources(数据资源)、Tools(可注册并供 LLM 调用的外部功能)以及 Prompts(Prompt 模板渲染),通过 JSON-RPC 与客户端通信,完成会话管理、能力声明以及跨传输协议(如 Stdio、SSE、WebSocket)的上下文服务,方便编辑器、IDE 以及本地模型进行组合式推理与扩展。仓库中明确包含 MCP 集成组件、启动脚本及相关文档,具备对 MCP 客户端的完整支持能力。

AI与计算

FHL Bible MCP Server

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。

AI与计算

Code Puppy MCP Server

基于模型上下文协议(MCP)的后端服务器,实现资源托管、工具注册/执行以及提示模板渲染,并通过 JSON-RPC 与客户端通信,提供会话管理、能力声明以及对多传输协议的支持,旨在为LLM客户端提供标准化的上下文和外部功能访问服务。

AI与计算

MCP Over MQTT 服务器实现(paho-mcp-over-mqtt)

基于 MQTT 5.0 的 MCP 服务器实现,使用 paho-mqtt-c 库,提供资源管理、工具注册与调用、以及基于 JSON-RPC 的 MCP 请求/响应处理,支持服务器上线、会话管理和多客户端交互。

网页与API

Fess MCP WebApp 插件

将 Fess 转换为基于 MCP 的服务器,提供 JSON-RPC 2.0 的接口,用于资源、工具、提示等的管理与调用

商业系统

Fantaco MCP 服务器实现(客户与财务)

基于模型上下文协议(MCP)的后端服务器实现,提供面向客户与财务的工具服务,通过 FastMCP HTTP 传输向 LLM 客户端暴露可调用的工具,支持资源访问与任务执行,便于在对话式应用中以标准化方式获取上下文信息和外部功能。

AI与计算

Spring AI MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器端实现,提供工具注册、资源管理与提示模板渲染等核心能力,并通过标准化的 JSON-RPC/_stdio 传输与 MCP 客户端通信,支持多种传输方式(如 Stdio、SSE)。仓库中包含可运行的 MCP 服务器代码(mcp-server 模块),以及对接客户端的示例与配置工具。

开发者工具

Cursor Engineering Rules MCP 服务端

基于模型上下文协议(MCP)的服务器实现,提供对 Cursor 规则、工具调用和工作流指南的标准化上下文服务,便于与LLM客户端集成与扩展。

AI与计算

mcp-server-starter

一个基于 Model Context Protocol 的最小可运行服务器实现,使用 stdio 传输,与客户端通过 JSON-RPC 进行交互,公开一个简单的 hello 工具,便于开发者快速上手 MCP 服务端开发。

AI与计算

Agent Bridge MCP Server Mock & Integration

一个将 LangChain 代理与 MCP 服务器整合的后端平台,包含可运行的 MCP 服务器示例(Mock),用于向大模型客户端提供资源、工具和提示模板等上下文信息,并提供完整的服务端框架以注册、管理 MCP 服务器和工具权限,支持实时通信与安全认证等能力。

AI与计算

Whimbox-MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器端实现,作为 Whimbox 的后端服务,通过 JSON-RPC 提供资源/工具(Tasks/宏相关接口)等能力给大语言模型客户端调用,支持健康检查、嵌入式工具渲染与多传输协议(如 streamable-http)。

网页与API

Langfuse Docs MCP Server

基于模型上下文协议(MCP)的后端服务器,在 Langfuse 文档站点中暴露 MCP 服务,提供工具注册、与客户端的 JSON-RPC 通信,以及为 LLM 客户端提供文档检索与页面获取等能力。

AI与计算

vLLM.rs MCP 服务端实现

基于 Rust 的 MCP(Model Context Protocol)服务器实现,整合 vLLM.rs 引擎,提供资源托管、工具注册与执行、Prompt 模板渲染等核心 MCP 功能,通过 JSON-RPC 风格通信与 MCP 客户端协同工作,支持多种传输场景并具备会话管理能力。

AI与计算

ppuzik MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,为大语言模型客户端提供 Bristol Stool 分类工具的统一访问接口,按标准化的 JSON-RPC 形式处理工具调用与结果返回。

开发者工具

Azure Functions MCP 扩展

将Azure Functions应用转变为可扩展的远程MCP服务器,支持工具定义和调用

AI与计算

OpenAgents MCP服务器

一个开源的AI代理网络平台,提供MCP服务器功能让LLM客户端能够访问网络中的资源、工具和提示模板。

开发者工具

AEnvironment

生产级环境平台,基于MCP协议为代理强化学习提供统一基础设施

数据库与文件

Soliplex MCP 服务器

一个支持多房间架构的AI增强检索生成系统,可作为MCP服务器向LLM客户端提供文档搜索、工具调用和提示模板等能力

AI与计算

Omni Agent Mesh MCP 服务器

一个基于Model Context Protocol的多智能体协作系统,通过标准化接口为LLM客户端提供上下文信息和功能调用能力。

AI与计算

Symfony MCP Bundle

基于Symfony框架的MCP服务器组件,支持多种AI平台和工具调用

AI与计算

Mistral.rs MCP服务器

基于Rust的高性能多模态AI推理引擎,提供完整的Model Context Protocol服务器实现,支持文本、视觉、语音和图像生成模型

AI与计算

NeuroML AI MCP 服务器

此项目是NeuroML AI助手的MCP服务器实现,负责托管和执行用于NeuroML模型生成及查询的工具,通过Model Context Protocol (MCP) 标准化地向大语言模型客户端提供上下文和功能。

开发者工具

MCP UI 应用扩展与示例服务器

这是一个为MCP客户端提供交互式UI元素的应用扩展SDK,并包含一个功能完整的MCP示例服务器,用于展示UI资源和工具调用。

开发者工具

Ctxfy

Ctxfy是一个企业级Model Context Protocol (MCP) 服务器,用于标准化和自动化开发者与AI代理之间的交互,将临时提示转化为可重复、可审计和可扩展的上下文工程流程。

AI与计算

Benchmax MCP 环境服务

Benchmax是一个框架,用于为LLM强化学习微调定义、运行和并行化RL环境。它通过内部部署的Model Context Protocol (MCP) 服务器,以标准化的方式向LLM客户端提供环境中的上下文信息、可调用工具和奖励机制。

开发者工具

Quarkus MCP 时间服务

一个基于 Model Context Protocol (MCP) 实现的 Quarkus 服务器,为 LLM 客户端提供获取实时日期和时间的功能。

AI与计算

srchd: 多智能体协作研究平台

`srchd` 通过模拟学术发表与评审系统,编排多个AI智能体协作解决复杂的推理和搜索密集型问题,尤其擅长漏洞搜索,并集成了多个MCP服务器提供核心功能。

AI与计算

Artinet SDK

Artinet SDK 是一个TypeScript库,提供了构建Agentic Communication的AI Agent,并支持将其作为Model Context Protocol (MCP) 服务器向LLM客户端提供上下文信息和功能。

AI与计算

AI助手平台 - Polychat

一个完整的AI平台,通过集成的AI代理支持MCP协议,提供多模型聊天、工具调用、知识检索和多应用服务。

AI与计算

Atlas Chat UI 与模块化MCP服务器

一个现代化的LLM聊天界面,通过集成多个内嵌的Model Context Protocol (MCP) 服务器,提供丰富的工具调用、RAG数据源和可定制的LLM交互模式。

AI与计算

Claude Skills MCP 服务器

一个基于Model Context Protocol (MCP) 的服务器,为任何AI模型提供智能的Claude Agent技能搜索和文档访问功能。

AI与计算

Google ADK个性化购物智能代理

该仓库提供了一个基于Google Agent Development Kit (ADK) 构建的个性化购物智能代理,并展示了如何将其部署为支持MCP协议的服务器,以提供上下文信息和工具服务。

AI与计算

NVIDIA NeMo Agent Toolkit

灵活的NVIDIA NeMo Agent Toolkit,能够连接企业级代理与各类数据源和工具,并通过Model Context Protocol (MCP) 发布这些能力,使其成为可扩展的MCP服务器。

AI与计算

MCP服务器开发入门与FastMCP实践

该仓库提供Model Context Protocol (MCP) 服务器开发的全面指南,并包含基于FastMCP框架的Python实现示例,演示如何构建、配置和运行MCP工具服务器。

AI与计算

Codex Agent 服务容器

Codex Agent 服务容器提供了一个 Docker 化环境,内置多种 Model Context Protocol (MCP) 服务器,赋能 LLM 客户端通过标准化协议调用外部工具和管理上下文。

开发者工具

XMCP

一个用于使用 TypeScript 构建和部署 Model Context Protocol (MCP) 服务器的框架,旨在简化 LLM 应用上下文服务开发。

AI与计算

AI虚拟助理平台

一个基于LlamaStack构建的AI虚拟助理平台,支持知识库集成、工具调用,并包含可扩展的MCP工具服务器。

开发者工具

Swarm Box - Claude CLI 开发环境

一个预配置的容器化开发环境,内置 Claude CLI 和基于 Chrome DevTools 的 MCP 服务器,支持 Docker 和 Podman。

AI与计算

Inkeep Agent运行时API

一个可扩展的AI Agent运行时后端,通过Model Context Protocol (MCP) 和A2A协议暴露AI Agent能力,提供工具调用、上下文管理和会话交互服务。

AI与计算

Agntcy应用SDK

一个Python SDK,用于构建和连接支持MCP等代理协议的智能体应用,提供多传输协议的MCP服务器与客户端功能。

AI与计算

Mastra AI 框架

Mastra是一个用于构建AI应用和智能体的TypeScript框架,提供强大的工作流编排、上下文管理、工具调用和多模型集成能力,支持独立服务器部署。

AI与计算

Fastify MCP 服务器插件

将 Fastify 应用转变为高性能、可流式传输的 MCP 服务器,支持 AI 助手安全连接外部数据和工具。

开发者工具

MCP Node.js 服务端脚手架

为基于 Model Context Protocol (MCP) 构建的 Node.js 服务器提供核心框架和常用功能,简化 LLM 应用后端开发。

网页与API

Auth0 FastMCP 认证服务器

提供一个集成了 Auth0 认证流程的 FastMCP 服务器,用于为 LLM 客户端提供安全的上下文和工具访问。

AI与计算

Conductor Gateway

一个高性能的自主网关服务,通过SSE流和MCP协议将Web应用与Conductor智能体执行系统连接。

AI与计算

Context7

Context7 是一个基于 Model Context Protocol (MCP) 的服务器,为 AI 应用提供上下文信息和智能辅助能力。

开发者工具

Avalan AI代理微框架

Avalan是一个多后端、多模态的AI代理微框架,提供统一SDK和CLI,支持在本地、私有云和公共云上构建、编排和部署智能AI解决方案,并原生支持MCP协议。

AI与计算

AgentGateway

AgentGateway是一个为Agentic AI设计的连接平面,支持Model Context Protocol (MCP) 和Agent2Agent (A2A),提供安全性、可观测性和治理能力,并能将传统API转换为MCP资源。

AI与计算

持久化AI记忆系统MCP服务

为AI助手提供持久化、可搜索的记忆存储、上下文管理、工具调用及自我反思能力。

AI与计算

.NET MCP 服务器示例与开发指南

一个综合性的 .NET AI 工作坊,提供 Model Context Protocol (MCP) 服务器的开发示例,使 LLM 客户端能够调用外部工具并获取上下文信息。

开发者工具

MCP Go SDK

官方Model Context Protocol (MCP) Go语言软件开发工具包,提供构建MCP客户端和服务器的API与实用工具。

AI与计算

Perplexity AI MCP 服务器

将 Perplexity AI 问答和搜索能力通过 Model Context Protocol 封装为工具,为 LLM 客户端提供高级上下文服务。

AI与计算

FastMCP Python上下文服务器模板

基于Python和FastMCP构建的生产级Model Context Protocol (MCP) 服务器模板,提供工具、资源和Prompt管理、多协议传输及OAuth2认证支持。

网页与API

.NET MCP 天气服务托管于Azure Functions

这是一个基于.NET MCP SDK构建的天气信息服务,可作为MCP服务器托管在Azure Functions上,为LLM提供天气查询工具。

AI与计算

MCP上下文协议服务器

一个基于TypeScript构建的MCP服务器实现,提供上下文信息、工具执行、Prompt渲染以及OAuth认证和会话管理功能。

AI与计算

Go语言MCP服务器(含OpenTelemetry)

一个基于Go语言实现的Model Context Protocol (MCP) 服务器,内置OpenTelemetry支持,提供LLM应用所需的上下文服务和工具调用能力。

AI与计算

Reboot 耐久型MCP服务器框架

一个基于Python的MCP服务器框架,提供持久化会话、工具和资源管理,支持服务器重启后安全地恢复LLM交互。

AI与计算

Node-RED MCP 服务器

一个现代化、生产就绪的Model Context Protocol (MCP) 服务器,用于将Node-RED的流、节点和运行时信息暴露给大型语言模型(LLM)客户端。

AI与计算

LitServe

一个用于部署AI模型、Agent、RAG和MCP服务器的轻量级、高性能Python框架。

网页与API

Go语言MCP API开发框架

Baby API是一个极简的Go语言CRUD API框架,通过集成Model Context Protocol (MCP) 功能,能快速构建面向LLM应用的上下文服务后端。

AI与计算

MCP日记应用服务器

一个基于Model Context Protocol (MCP) 实现的个人日记应用后端,提供日记管理、标签分类、AI辅助标签建议及内容补全等功能。

AI与计算

Symfony AI Demo MCP 服务器

一个基于 Symfony 框架构建的 MCP 服务器示例,通过 JSON-RPC 协议向 LLM 客户端提供工具服务。

开发者工具

Serverless API Helper (MCP)

提供AI赋能的API开发指导和OpenAPI构建工具,通过MCP协议与LLM客户端交互。

AI与计算

Xaibo

模块化AI Agent框架,可将Agent暴露为Model Context Protocol (MCP) 服务器

商业系统

Odoo MCP Server

使AI助手能够通过Model Context Protocol与Odoo ERP系统交互的服务器。

通信与社交

Discord通知MCP服务器

一个基于MCP协议,用于向Discord发送通知的服务器,可在Cloudflare Workers上部署。

AI与计算

Pluggy MCP 服务器

基于 MCP 协议,提供通过 Pluggy API 访问用户金融账户和连接器列表的功能。

AI与计算

Intelli

构建和运行Model Context Protocol (MCP) 服务器的工具,支持数据和功能标准化暴露给LLM。

AI与计算

lkr CLI - Looker MCP 服务器

结合 Looker SDK 提供 CLI 工具,并内置 MCP 服务器为 LLM 客户端提供 Looker 上下文和功能。

开发者工具

Python MCP 工具服务器集合

为AI编程助手提供文件操作和本地文档查询功能的MCP服务器集合。

AI与计算

Official Ampersand MCP Server

基于Model Context Protocol,通过Ampersand平台连接至150+ SaaS应用,为大型语言模型提供丰富的工具集。

开发者工具

WiFi MCP Server

提供Wi-Fi网络扫描、状态查询、信号监测等功能的MCP服务器,供LLM客户端集成使用。

数据库与文件

Gen3数据共享平台MCP服务器

连接大模型客户端与Gen3数据共享平台,提供Schema元数据、查询构建和执行能力。

AI与计算

Madness Interactive - Omnispindle MCP 服务器

Madness Interactive 生态中的核心 MCP 服务器,用于分布式任务管理、Agent 协同与上下文服务。

网页与API

维基百科MCP服务

Strands Agent仓库中包含的维基百科MCP服务,通过MCP协议提供维基百科搜索和摘要功能。

AI与计算

AgentCrew

强大的多智能体AI助手框架,支持多种LLM提供商和工具集成,并提供基于A2A协议的上下文服务和工具调用服务器能力。

AI与计算

mcp-php-server

基于PHP实现的Model Context Protocol (MCP) 服务器,为LLM提供上下文和工具能力。

AI与计算

Aura AI伴侣 MCP 服务

为Aura AI伴侣提供MCP接口,使外部LLM客户端能访问其记忆、情绪分析等核心功能。

商业系统

金融领域MCP服务器

为LLM客户端提供股票行情、财报、新闻等金融数据访问及分析工具。

AI与计算

ExMCP: Elixir MCP 实现

基于 Elixir 语言,提供完整的 Model Context Protocol (MCP) 客户端和服务器实现,赋能 AI 模型安全交互。

AI与计算

TypeScript MCP资源服务器示例

基于TypeScript和Firestore,演示OAuth认证和工作空间隔离的MCP资源服务器参考实现。

AI与计算

Agentic Framework MCP服务器

基于MCP协议,托管多种AI工具(如天气、航班、量子计算等),为LLM客户端提供上下文和能力。

AI与计算

Itential MCP 服务器

连接大语言模型至Itential平台,提供自动化和平台管理工具的MCP服务器。

AI与计算

Genie MCP Server

一个基于 MCP 协议的服务端,使 LLM 能通过工具和资源与 Databricks Genie 交互,获取数据和答案。

AI与计算

Swarmonomicon

基于代理、工具和任务列表的Rust后端服务,通过API和MQTT为LLM应用提供结构化上下文和功能。

AI与计算

Jarvis

Jarvis是一个本地AI助手,通过MCP架构集成了LLM和外部服务,当前支持使用自然语言发送Gmail邮件。

AI与计算

Laravel Loop

将 Laravel 应用能力通过 MCP 协议暴露给 AI 助手的后端框架。

生产力应用

Omnispindle

基于 FastMCP 协议的待办事项 (Todo) 及经验总结 (Lesson Learned) MCP 服务器,提供数据管理和工具调用能力。

开发者工具

Internet Computer MCP 服务器开发工具包

在 Internet Computer (IC) 上构建 Model Context Protocol (MCP) 服务器的开发工具包。

AI与计算

Embabel Agent Framework

基于JVM的智能代理框架,支持复杂规划与工具调用,可作为MCP服务器为LLM提供服务。

AI与计算

X402 & Walrus MCP Server

一个基于MCP协议的AI上下文服务器,提供数据访问和分布式存储工具。

AI与计算

MCP (Model Control Protocol) 服务器

基于 Model Context Protocol 构建的模块化服务器,用于管理AI模型、注册工具、提供上下文服务。

AI与计算

MCP 可执行服务器

将基于 Model Context Protocol (MCP) SDK 构建的服务器打包成独立可执行文件,支持灵活配置和多种连接方式。

AI与计算

OPNsense MCP 服务器

通过AI客户端使用自然语言管理OPNsense防火墙,提供规则、接口、服务等多种管理功能。

开发者工具

ISE MCP 服务器

一个基于MCP协议的服务器,通过JSON-RPC将思科ISE(Identity Services Engine)数据动态封装为可调用的工具。

AI与计算

DigitalOcean MCP 服务器

通过 Model Context Protocol (MCP) 连接 AI 客户端与 DigitalOcean 资源,实现智能化的云管理。

AI与计算

MCP 示例计算器服务器

提供一个基于 MCP 协议的计算器工具服务器示例,可供 LLM 调用进行数学计算。

网页与API

TinyAgents 天气MCP服务器示例

基于MCP协议实现的天气数据后端服务,提供天气预警和预报查询工具供LLM客户端调用。

开发者工具

kubectl-ai: Kubernetes AI助手

通过自然语言简化Kubernetes管理,并可作为MCP服务器提供Kubernetes工具能力给LLM客户端。

开发者工具

Node.js MCP 服务器可执行版

将 Node.js 构建的 MCP 服务器打包为可执行文件,提供资源、工具、提示等上下文服务。

数据库与文件

AWS Lake Formation MCP服务器

通过Model Context Protocol工具管理AWS Lake Formation权限

AI与计算

VistA AI Context Server

为大语言模型提供VistA医疗系统患者和药物信息的MCP服务器实现。

AI与计算

AgentToAgent MCP 服务器实现

基于FastMCP框架构建的Model Context Protocol (MCP) 服务器实现,用于将代理能力暴露给大型语言模型客户端。

AI与计算

Azure MCP Server 示例

演示如何使用 Azure MCP 服务器通过 LLM 访问 Azure 资源,支持工具调用和上下文管理。

AI与计算

Agentic Slack Bot

提供基于MCP协议的Agent能力服务,支持网页抓取等工具调用。

AI与计算

多源MCP服务器代理网关

一个连接LLM(如Claude)与多个MCP服务器的代理,聚合管理工具并提供统一接口。

AI与计算

MCPheonix

基于Elixir/Phoenix实现的简化版Model Context Protocol (MCP) 服务器,提供大模型上下文和工具调用服务。

网页与API

Lightpanda Go MCP 服务器

基于Go语言实现的MCP服务器,提供浏览器交互和网页内容提取工具。

AI与计算

MCP命令行工具适配器

通过MCP协议安全地暴露命令行工具,供LLM客户端调用执行。

AI与计算

餐厅AI助手 MCP后端

基于Model Context Protocol (MCP),为AI语言模型提供餐厅点单、服务员呼叫等功能的上下文和工具服务。

AI与计算

Django MCP 服务器模块

将 Django 应用的能力通过 Model Context Protocol (MCP) 暴露给 LLM 客户端和 AI 代理,实现无缝交互。

AI与计算

MCP笔记助手服务器

一个基于Model Context Protocol (MCP) 的服务器,为AI助手提供笔记记录、查询最新笔记和生成笔记摘要的功能。

AI与计算

Fluent MCP

用于使用流畅接口快速构建 Model Context Protocol (MCP) 服务器的 JavaScript/TypeScript 库。

AI与计算

Contexa SDK(含MCP服务器构建能力)

标准化AI agent开发、部署与互操作框架,提供构建和运行MCP兼容服务器的能力。

AI与计算

Future Quiz

一个智能问卷系统后端,集成AI能力并支持MCP协议,为LLM提供问卷相关的工具和上下文服务。

AI与计算

Kakao MCP 集成服务器

基于MCP协议,连接AI智能体与Kakao服务(如消息、日历)的后端实现。

AI与计算

HTTP Privacy

多语言AI后端,通过集成MCP协议库提供LLM上下文服务(资源、工具)。

AI与计算

Flux

基于MCP协议,提供与AO(Arweave计算层)交互的AI工具集服务器。

AI与计算

Melina.js MCP 服务器组件

基于Bun运行时,为LLM应用提供资源、工具和Prompt模板的标准上下文服务器。

开发者工具

FastMCP 样板项目

快速构建 MCP 服务器应用的起始样板,包含基础工具、资源、提示模板示例。

AI与计算

Qilin MCP服务器框架

一个用Go语言构建的Model Context Protocol (MCP) 服务器框架,用于向LLM提供资源和工具服务。

开发者工具

Jira MCP Server

提供 MCP 工具与 Jira 交互,使 LLM 能够获取、创建和搜索 Jira 问题。

AI与计算

PayAI MCP 服务器

将 PayAI AI 代理市场集成到支持 MCP 协议的 LLM 客户端中,允许查看和雇用 AI 代理。

AI与计算

AWS EC2 定价查询服务

提供 AWS EC2 实时定价信息,通过 MCP 协议供大型语言模型或自动化脚本调用。

AI与计算

FastMCP-Scala: Scala MCP 服务器构建库

基于Scala 3和ZIO,用于快速、便捷地构建符合Model Context Protocol (MCP) 标准的应用后端服务器。

AI与计算

Mnemo AI代理框架

一个基于 Model Context Protocol (MCP) 构建的Python框架,用于创建AI代理、编排工作流,并通过标准化的方式向LLM提供工具和数据访问能力。

AI与计算

UnifAI 工具 MCP 服务器

将 UnifAI 平台上的工具通过 Model Context Protocol (MCP) 暴露给 LLM 客户端。

AI与计算

Saqr-MCP

基于MCP协议的Python应用,为本地LLM提供网页搜索等工具能力。

AI与计算

Cloudera ML MCP 服务器

通过 Model Context Protocol (MCP),为 LLM 提供访问和管理 Cloudera Machine Learning 资源的工具集。

AI与计算

MCP Daemon 后端开发框架

一个基于 Rust 的 Model Context Protocol (MCP) 后端开发框架,简化 LLM 应用与外部数据及工具的集成。

AI与计算

花园伙伴 MCP 服务器

一个基于 Cloudflare Worker 实现的 MCP 服务器,提供花园管理工具集。

开发者工具

AWS MCP 服务器示例集

提供在 AWS Lambda 和 ECS 上部署无状态/有状态 MCP 服务器的示例,展示不同架构。

开发者工具

MCP Swift SDK

为Swift开发者提供构建和连接遵循Model Context Protocol (MCP) 标准的服务器和客户端的工具包。

开发者工具

Plasma

基于 Ruby 的 MCP 服务器构建 SDK,提供 Rails 风格的约定,简化工具、Prompt 和资源开发。

数据库与文件

Apache Doris 模型上下文服务器 (MCP)

基于 MCP 协议为大型语言模型 (LLM) 提供访问 Apache Doris 数据库的工具和上下文信息。

AI与计算

VisionCraft MCP 服务器

通过MCP协议为AI助手提供专业的计算机视觉和生成式AI知识库访问能力。

网页与API

Swagger MCP 服务器

将Swagger/OpenAPI定义的API接口转换为MCP工具,提供给LLM客户端调用。

AI与计算

Sqirvy MCP 服务器 (Go语言)

使用Go语言实现的Model Context Protocol (MCP)服务器,为LLM提供资源、工具及Prompt服务。

AI与计算

MCP国际象棋服务器

一个基于MCP协议的国际象棋后端,赋能大型语言模型进行棋局互动和分析。

AI与计算

RuoYi AI 助手平台

基于RuoYi框架构建的AI助手平台,提供LLM所需的上下文、工具及Prompt服务,支持多种AI功能。

AI与计算

FastAPI MCP 服务器

基于FastAPI的MCP服务器,为大型语言模型提供上下文管理、工具调用和SSE实时通信能力。

AI与计算

FastAPI FastMCP 集成服务器

集成FastAPI和FastMCP,快速构建可扩展的LLM上下文服务器,支持工具、资源、Prompt自动发现。

数据库与文件

AgentMode MCP 服务器

连接AI到数据库、数据仓库、数据管道及云服务的全能型Model Context Protocol (MCP) 服务器。

AI与计算

Mem0 MCP 服务器

将 Mem0.ai 持久记忆系统集成到 AI 助手的 MCP 服务器。提供工具用于存储、检索、搜索和管理不同类型的用户记忆。

开发者工具

MCP 进程管理器

一个基于 MCP 协议的服务器,为 AI 代理和工具提供标准化的背景进程管理能力。

网页与API

Bilibili 字幕 MCP 服务器

为AI客户端提供获取Bilibili视频字幕的能力。

AI与计算

Node.js上的.NET WebAssembly MCP服务器

一个在Node.js环境下通过WebAssembly运行.NET ASP.NET Core实现Model Context Protocol (MCP) 服务器的基础示例。

AI与计算

Research Graph MCP服务器

基于AIRAS框架,提供论文检索等AI研究自动化功能作为MCP工具。

数据库与文件

Jackal MCP 服务器

基于 Model Context Protocol (MCP) 实现的服务器,提供与 Jackal Protocol 分布式存储网络交互的功能。

开发者工具

OpenAstra

一个基于对话的API开发平台,通过集成和管理Model Context Protocol (MCP) 服务器,为LLM提供API交互和执行能力。

AI与计算

MCP协议应用实践

通过实战案例演示构建基于Model Context Protocol的AI后端服务,连接大模型与外部能力。

AI与计算

Hatchling

一个交互式CLI聊天应用,集成Ollama本地大模型,内置并使用Model Context Protocol (MCP) 服务器提供工具能力。

AI与计算

ChatMcp

一个集成了多种大型语言模型和外部工具服务的AI聊天与工具平台,支持丰富的AI交互和自动化能力。

AI与计算

本地MCP计算工具服务器示例

该项目是一个基于MCP协议的本地服务器示例,提供数学计算工具供LLM客户端调用,展示了如何实现本地函数调用能力。

AI与计算

Daan

轻量级AI客户端,集成MCP协议,通过工具和上下文扩展LLM能力。

商业系统

内容管理系统 AI 适配器示例

这是一个示例项目,展示了如何构建一个 MCP 服务器,通过访问控制为 AI 提供对内容管理系统 API 的能力。

AI与计算

Azure AI 旅行助手

一个基于Model Context Protocol的多智能体AI旅行应用示例。

AI与计算

PHP MCP Server

核心PHP库,用于构建符合Model Context Protocol (MCP)标准的服务器,轻松将PHP应用逻辑暴露给LLM客户端。

生产力应用

MCP待办事项应用

一个通过Model Context Protocol (MCP) 为AI助手提供待办事项清单访问和管理能力的服务器。

AI与计算

泰国车牌卜卦 MCP 服务器

一个基于Model Context Protocol (MCP)的后端服务,提供泰国车牌和生日相关的卜卦及运势查询功能。

开发者工具

Node.js/TS Todo MCP服务器

一个基于Node.js/TypeScript实现的MCP服务器示例,提供TODO管理工具集,支持SSE协议。

商业系统

Genesys Cloud 模型上下文协议服务器

连接大语言模型到 Genesys Cloud,通过 MCP 协议提供队列搜索等功能。

AI与计算

FastAPI MCP LangGraph 模板

集成了MCP服务器、LangGraph和FastAPI的LLM应用模板。

开发者工具

PowerShell MCP (PSMCP)

连接PowerShell脚本与LLM客户端,将脚本转化为可被自然语言调用的AI服务。

桌面与硬件

SlicerAgent

基于Model Context Protocol (MCP) 的3D Slicer辅助代理后端,提供Slicer功能和数据访问作为工具。

生产力应用

MCP任务管理器示例

基于MCP,将任务管理后端集成到AI客户端,通过自然语言管理任务。

AI与计算

Cloudera AI Agent Studio MCP 服务器

轻量级网桥,将 Cloudera Agent Studio 功能暴露为 MCP 工具,供大型语言模型客户端调用。

AI与计算

Open IMI

AI聊天客户端,通过MCP连接多种LLM和工具,包含可定制的MCP服务器示例。

商业系统

Square API MCP 服务器

基于 Model Context Protocol 的服务器,提供对 Square Connect API 的标准化访问,赋能大型语言模型与 Square 商业数据和功能交互。

开发者工具

基于Genkit的MCP服务器实现示例

一个演示如何使用 Genkit 在 Firebase/Cloud Run 构建 AI 应用的示例项目,内含 MCP 服务器实现代码。

AI与计算

MCP Go服务器入门示例

使用 Go 语言和 mcp-go 库构建的 MCP 服务器基础示例,展示工具、资源和提示词的实现。

AI与计算

基石智算 MCP 服务器

提供基石智算云平台计算、存储、训练、推理等服务的MCP服务器后端。

开发者工具

影刀RPA MCP服务器

基于MCP协议,为LLM客户端提供影刀RPA能力,支持Stdio和SSE传输模式。

AI与计算

MCP 网关

一个 Python 应用,聚合多个后端 MCP 服务器的能力,通过统一的 SSE 端点提供给 LLM 客户端。

AI与计算

Spring AI 工具服务器

基于Spring AI构建的MCP服务器,为LLM提供外部工具调用和上下文能力。

AI与计算

AlphaCore MCP 能力编排服务器

一个基于 MCP 协议的能力编排服务器,用于协调大型语言模型和外部工具的交互与执行。

网页与API

MCP API 网关

提供多用户、安全密钥管理的Model Context Protocol服务器HTTP网关。

生产力应用

MCP服务器示例:白板工具连接器

通过MCP协议提供与在线白板工具(如FigJam)的连接能力,允许LLM调用工具创建和管理白板内容。

开发者工具

GitHub仓库 MCP上下文服务器

提供GitHub仓库内容作为上下文,赋能LLM理解代码和项目结构。

开发者工具

MCP 智能代理示例服务器

基于 Model Context Protocol (MCP) 的示例服务器,为AI代理教程提供链上数据查询和交易等工具能力。

网页与API

Pixabay图片搜索MCP服务器

一个基于Model Context Protocol (MCP) 的服务器,通过工具调用为LLM提供Pixabay图片搜索功能。

AI与计算

fast-agent MCP 应用框架

基于 Model Context Protocol (MCP) 构建 LLM 应用的高效框架,用于创建和编排 Agent、调用工具和管理上下文。

AI与计算

Kash

基于MCP协议的AI原生命令行工具和应用后端,提供知识任务管理和AI工具调用能力。

AI与计算

Ultimate MCP Server

基于 Model Context Protocol (MCP) 的全面服务器,为AI Agent提供丰富的工具、记忆和模型调用能力,增强认知与操作。

AI与计算

KOI-MCP Integration

连接知识组织基础设施 (KOI) 中的智能体个性与能力到大型语言模型 (LLM) 客户端,以标准化的资源和工具形式呈现。

AI与计算

Hono无状态MCP服务器(Cloudflare适配)

基于Hono框架,实现Model Context Protocol (MCP) 的无状态服务器,优化适配Cloudflare Workers等Serverless环境。

AI与计算

KOI-MCP Integration

整合KOI知识网络与MCP协议,使智能体能发布自身能力为标准化工具和资源,供LLM客户端调用。

AI与计算

Convoworks GPT MCP服务器插件

基于Convoworks框架,将WordPress服务扩展为MCP服务器,通过SSE协议为LLM客户端提供工具和Prompt能力。

AI与计算

Archon智能体构建MCP服务器

此MCP服务器允许LLM客户端调用Archon智能体构建工具,帮助用户创建和管理AI智能体。

开发者工具

MCPMan (MCP管理器)

一个协调大型语言模型 (LLM) 调用外部功能 (工具) 并利用 Model Context Protocol (MCP) 服务器提供上下文的工具。仓库中包含了 MCP 服务器的示例实现。

AI与计算

Snak Agent Template

基于 Snak 框架构建的 AI 代理模板,可配置为 MCP 服务器,连接大型语言模型与 Starknet 区块链。

开发者工具

mcp-tools示例服务器

演示如何使用 Go 和 Python 构建 MCP 服务器,提供资源访问和工具调用能力。

数据库与文件

Frappe MCP Server (Python)

基于MCP协议的服务器实现,为LLM应用提供Frappe框架和数据库的连接能力,支持工具调用和数据访问。

AI与计算

Streamable HTTP MCP Server (TypeScript)

基于 Model Context Protocol 和 Streamable HTTP 协议的服务器端实现,使用 TypeScript 开发,提供资源管理、工具注册和 Prompt 模板等核心 MCP 功能。

AI与计算

Ollama/Gemini MCP智能体及示例服务器

基于Ollama/Gemini大模型的MCP客户端应用,集成了工具调用能力,并提供了可扩展功能的示例MCP服务器。

网页与API

Genkit Google Maps MCP 示例服务器

此项目演示了如何使用 Genkit 和 MCP 协议,通过 Google Maps API 为 LLM 提供地理位置信息查询等工具。

AI与计算

MCP工具服务器示例

一个基于Model Context Protocol (MCP) 的示例服务器,提供天气查询、字典查询和数学计算等实用工具,方便LLM应用扩展功能。

开发者工具

Jiki框架

Jiki是一个灵活的LLM编排框架,通过MCP协议实现工具调用,简化了LLM应用与外部工具和资源的集成。

网页与API

加密货币价格追踪MCP服务器示例

一个简单的MCP服务器,通过CoinGecko API提供加密货币价格信息,展示了MCP协议工具注册和执行的基本功能。

通信与社交

钉钉Agent MCP服务器

将钉钉客户端作为LLM客户端的MCP服务器,提供用户和消息相关的工具,集成钉钉开放平台能力。

AI与计算

MCP Server (Spring AI based)

基于Spring AI框架构建的MCP服务器,提供资源、工具和Prompt模板管理,并通过SSE实现与LLM客户端的通信。

开发者工具

Remote MCP Server (Cloudflare)

基于Cloudflare Workers构建的远程MCP服务器,提供资源、工具和Prompt模板管理,并通过OAuth进行安全认证。

网页与API

Remote MCP with SSE示例

使用FastAPI和Server-Sent Events (SSE) 构建的远程MCP服务器示例,允许客户端通过HTTP访问服务器端工具。

网页与API

Cloudflare远程MCP服务器

基于Cloudflare Workers构建的远程MCP服务器,提供OAuth登录和工具注册能力,可与Claude等客户端集成。

开发者工具

Lambda MCP服务器

基于AWS Lambda的简易MCP服务器,通过Streamable HTTP协议与客户端通信,提供工具调用功能。

网页与API

MCP Demo客户端及天气服务示例

演示了如何使用 MCP 客户端连接和调用 MCP 服务器,包含天气预报和警报工具。

数据库与文件

Mongo MCP Server

一个基于 Model Context Protocol 的 MongoDB 服务器,允许 LLM 通过工具调用操作 MongoDB 数据库。

网页与API

Weather Service MCP Server

一个基于Python实现的MCP服务器,提供天气信息查询功能,包括实时天气和天气预报,通过资源和工具两种方式为LLM应用提供上下文数据。

开发者工具

MCP Host

MCP Host 是一个 Node.js 应用,用于连接、管理和聚合多个 MCP 服务器,提供统一 HTTP API 访问工具和资源。

开发者工具

GitHub Copilot MCP集成示例

该仓库通过示例项目展示了如何将MCP服务器与GitHub Copilot Agent模式集成,提供上下文信息和工具能力。

桌面与硬件

VLC媒体控制MCP服务器

一个基于MCP协议的服务器,通过工具调用控制VLC媒体播放器,实现远程视频播放和管理。

AI与计算

Spring AI MCP服务器示例

基于Spring AI框架实现的MCP服务器示例,提供元素周期表查询、文件系统访问和地图路线规划等工具服务。

AI与计算

Think MCP Server

基于MCP协议实现的Think工具服务器,提供结构化思考工具及扩展工具,增强LLM的推理能力。

AI与计算

Better Auth MCP Server

为 Better Auth 应用提供模型上下文协议 (MCP) 服务,管理资源、工具和 Prompt 模板,标准化 LLM 交互。

开发者工具

mini-cursor

mini-cursor 是一个轻量级的开源工具,旨在复现 Cursor 编辑器的 MCP 服务器功能,允许用户在本地或远程使用工具扩展 LLM 应用的能力。

开发者工具

SupaMCP服务器

SupaMCP是一个跨平台的Model Context Protocol (MCP) 服务器实现,用C语言编写,支持资源和工具管理,并可作为网关路由请求。

开发者工具

AI Cookbook - MCP Server Demo

演示如何使用Model Context Protocol (MCP) 构建可扩展的AI应用后端,包含TypeScript和Python MCP服务器示例,支持STDIO和SSE传输协议,并集成LangGraph。

商业系统

Lithic MCP Server

为LLM应用提供访问Lithic API的MCP服务器,支持资源读取和工具调用。

AI与计算

Agentic MCP Server Examples

演示了基于Model Context Protocol的服务器实现,提供通过Stdio和SSE协议与LLM客户端交互的示例,包括工具注册和执行。

AI与计算

NGCBot MCP Server

基于FastMCP框架构建的MCP服务器,提供微信消息发送和用户ID查询等工具,桥接LLM与NGCBot API。

AI与计算

Gridware 集群调度器 MCP 服务器示例

基于go-clusterscheduler的MCP服务器示例,提供集群作业管理、状态查询和配置信息等功能,方便LLM应用集成集群调度能力。

网页与API

天气服务器示例

基于MCP协议构建的天气信息服务器,提供天气预报和气象警报查询功能。

AI与计算

Streamable HTTP MCP Server示例 (Lambda)

基于AWS Lambda的Streamable HTTP MCP服务器示例,演示了工具调用和实时响应的实现。

开发者工具

MCP客户端工具投毒攻击示例

本仓库提供了一个MCP客户端示例,用于演示如何通过Model Context Protocol (MCP) 与MCP服务器交互,并探讨工具投毒攻击的可能性。

AI与计算

AgentStudio MCP服务器

AgentStudio MCP服务器为AgentStudio平台上的智能体提供资源访问和工具调用能力,符合模型上下文协议标准。

开发者工具

MCP Lite

MCP Lite 是一个基于 Ruby 开发的轻量级模型上下文协议(MCP)服务器实现,旨在为 LLM 应用提供高效、可扩展的上下文服务框架。

开发者工具

L2C CTFs MCP 服务器

基于 Azure Functions 构建的 MCP 服务器,为 L2C CTFs 实验环境提供上下文服务和工具调用能力。

AI与计算

MCP Server Example (ai-playground)

基于ai-playground仓库的MCP服务器示例,提供加法工具,演示MCP服务器的基本功能。

开发者工具

Infisical MCP 服务器

Infisical MCP Server 通过 Model Context Protocol (MCP) 协议,将 Infisical 密钥管理平台的功能以工具形式提供给 LLM 客户端,实现安全的密钥管理和访问控制。

开发者工具

Minimal MCP Server on IC Canister

基于 Internet Computer 的最小化 MCP 服务器实现,目前仅支持工具 (Tools) 功能和 Streamable HTTP。

AI与计算

MCP Chat Demo with Claude

演示如何使用 Model Context Protocol (MCP) 构建支持 Claude LLM 的聊天应用,通过多个 MCP 服务器提供工具扩展 LLM 能力。

数据库与文件

Tiny-OAI-MCP-Agent

一个基于MCP协议的轻量级智能体,允许LLM通过自然语言操作SQLite数据库,演示LLM如何通过MCP协议与外部工具交互。

AI与计算

MCP计算器服务器示例

一个演示 Model Context Protocol (MCP) 服务器功能的简单示例,提供加、减、乘三种计算工具供LLM客户端调用。

开发者工具

AWS Bedrock Web工具 MCP服务器示例

演示如何构建一个基于Playwright的Web自动化MCP服务器,并与AWS Bedrock集成,实现LLM Agent能力。

AI与计算

Spring AI MCP DeepSeek示例服务器

基于Spring AI框架构建的MCP服务器示例,提供图书信息查询工具,支持LLM客户端通过工具调用获取图书数据。

AI与计算

Azure OpenAI MCP示例服务器

演示如何使用MCP协议与Azure OpenAI集成,提供工具注册和调用的基本MCP服务器功能。

AI与计算

MCP DeepSeek演示服务器

基于MCP协议实现的SSE服务器,集成DeepSeek模型,提供产品、库存、文件等工具调用能力。

AI与计算

MCP Node SSE参考服务器

基于Node.js和Server-Sent Events实现的MCP协议参考服务器,提供工具注册和调用能力,支持与LLM客户端进行上下文交互。

网页与API

Job Searchoor MCP服务器

一个提供职位搜索功能的 MCP 服务器,允许 LLM 客户端通过工具调用获取最新的职位信息。

开发者工具

Serverless MCP Server

基于AWS Lambda的轻量级MCP服务器,通过Serverless Framework快速部署,提供工具注册和执行能力,简化LLM应用上下文管理。

AI与计算

Simple Python MCP服务器

一个使用Python实现的简单但功能完备的MCP服务器,支持工具注册和调用,并提供时间工具示例。

网页与API

MCP网页内容抓取引擎

一个基于MCP协议的简易服务器,提供网页内容抓取工具,使LLM能够访问和利用网络信息。

开发者工具

MCP Ping-Pong 示例服务器

基于 FastAPI 和 FastMCP 构建的 Ping-Pong 示例服务器,演示了通过 API 和 SSE 进行 MCP 工具调用和 Prompt 获取。

开发者工具

Langchain NestJS MCP示例服务器

基于Langchain和NestJS构建的MCP服务器示例,演示了如何使用MCP协议提供上下文信息和工具能力。

AI与计算

Calculate MCP服务器

一个简单的MCP服务器,提供基础计算器功能,使LLM能够执行加减乘除等运算。

桌面与硬件

MCP Shell Server

一个基于MCP协议的轻量级服务器,通过工具调用执行shell命令,为LLM提供基础的系统交互能力。

AI与计算

Ask ChatGPT MCP Server

一个简单的MCP服务器,将OpenAI ChatGPT (GPT-4o) 模型封装为工具,供LLM客户端调用以进行文本分析、摘要和推理等任务。

网页与API

天气API MCP服务器

一个轻量级的MCP服务器,为AI助手(如Claude)提供实时天气数据,支持通过工具获取指定城市当前天气信息,并以HTML格式返回。

网页与API

航班搜索MCP服务器

基于Model Context Protocol的航班搜索服务,提供航班查询工具,供LLM客户端调用。

AI与计算

Autochat MCP Server示例 (基于FastMCP的示例服务器)

Autochat项目提供的MCP服务器示例,展示如何通过FastMCP框架构建和运行MCP服务器,为Autochat智能体提供资源和工具。

网页与API

GroundedLLM - 可落地AI Agent服务

GroundedLLM是一个开箱即用的AI Agent服务器,集成了搜索和信息提取工具,通过MCP协议为LLM客户端提供知识增强和工具调用能力,降低大语言模型幻觉。

网页与API

Simple-MCP (Tavily 搜索工具)

一个基于Tavily API实现的极简MCP服务器,提供网页搜索工具,方便LLM客户端获取实时信息。

网页与API

Demo MCP Server

一个演示性质的MCP服务器,提供通过URL获取本月事件摘要的工具,展示MCP协议工具调用的基本流程。

开发者工具

Emacs MCP Server

Emacs MCP Server是一个允许LLM在Emacs环境中执行代码的MCP服务器,扩展了LLM与Emacs编辑器的交互能力。

通信与社交

MCP Telegram Server

MCP Telegram Server是一个基于Model Context Protocol的服务器,旨在为LLM应用提供访问Telegram功能的桥梁。

开发者工具

Autono MCP Agent Framework

Autono框架通过MCP协议集成外部工具,构建可扩展的自主 агентов,实现复杂任务处理。

AI与计算

lumo

Rust实现的自主Agent框架,支持MCP协议,提供资源、工具和Prompt模板管理,可作为LLM上下文服务器。

商业系统

Entra ID 认证最小化 MCP 服务器示例

演示如何使用 Entra ID 认证和 HTTP+SSE 传输协议实现 MCP 服务器,提供调用 Microsoft Graph 获取用户信息的工具。

AI与计算

Axone MCP 服务器

Axone MCP 服务器是一个轻量级的 MCP 服务器实现,旨在为 AI 工具提供安全可扩展的数据访问和功能调用能力。

AI与计算

MatlabMCP服务器

MatlabMCP Server是一个MCP服务器的简单实现,允许LLM客户端通过工具调用在后台Matlab会话中执行Matlab代码。

AI与计算

LinkedIn内容创作助手

基于MCP和LangChain的开源AI Agent,用于自动化LinkedIn内容生成和发布,通过本地MCP服务器提供内容搜索工具。

AI与计算

Grok-2 图像生成 MCP 服务器

基于 MCP 协议的 Grok-2 图像生成服务,允许聊天助手通过工具调用生成图像。

AI与计算

Bedrock数学MCP服务器示例

演示如何使用Chainlit和MCP服务器集成Amazon Bedrock,提供基础数学工具供LLM调用。

网页与API

B站API MCP服务器

一个基于MCP协议的服务器,旨在为LLM应用提供B站API的工具和数据资源访问能力。

开发者工具

OpenAI MCP 示例服务器

一个展示如何使用 MCP 协议与 OpenAI API 交互的简单示例 MCP 服务器,支持工具注册和调用。

开发者工具

Cloudflare远程MCP服务器示例

基于Cloudflare Workers构建的远程MCP服务器示例,演示了如何使用OAuth进行身份验证并提供工具功能。

开发者工具

MCP服务器模板

这是一个用于快速搭建MCP服务器的模板项目,预置了工具注册和调用示例,方便开发者快速上手构建自己的LLM应用后端。

数据库与文件

Spring AI 人员数据 MCP 服务器示例

基于Spring AI和MCP协议,提供人员数据CRUD操作和查询工具的示例MCP服务器,用于演示MCP服务器的基本功能。

开发者工具

Weaverse文档搜索MCP服务器

Weaverse MCP服务器提供文档搜索工具,帮助用户快速检索Weaverse官方文档,为LLM应用提供知识库访问能力。

商业系统

FIB支付MCP服务器

为LLM应用提供First Iraqi Bank支付API的MCP服务器,支持创建、查询、取消和退款等支付工具。

开发者工具

AWS MCP协议演示服务器 (Python Stdio)

基于Python和Stdio实现的MCP服务器演示,提供计算器和天气查询工具,展示MCP协议在本地环境中的应用。

网页与API

Spring AI MCP Server示例 (天气工具)

基于 Spring AI 构建的 MCP 服务器示例,提供天气查询工具,演示如何向 LLM 客户端提供外部数据访问能力。

数据库与文件

文件系统 MCP 服务器示例

一个基于 Java 实现的 MCP 服务器,提供文件系统访问能力,包括文件读取和目录列表功能。

AI与计算

EdisonTalk MCP Server

基于Model Context Protocol的示例MCP服务器,提供工具注册和调用能力,支持Stdio和SSE传输协议,用于LLM智能体应用。

桌面与硬件

Computer Use MCP Server

一个MCP服务器,允许Claude等LLM模型通过工具调用控制您的电脑,实现鼠标键盘操作和屏幕截图等功能。

生产力应用

Spring AI 调度 MCP 服务器

基于Spring AI实现的狗狗领养预约调度MCP服务器,提供日程安排工具供LLM客户端调用。

网页与API

天气MCP服务器演示 (Java SSE)

基于Java和SSE实现的MCP服务器演示,提供天气查询工具,展示MCP协议在LLM应用中上下文信息和功能提供的能力。

网页与API

Scrapeless 搜索 MCP 服务器

基于 MCP 协议的服务器,为 LLM 提供通过 Scrapeless API 进行 Google 搜索的功能,扩展 LLM 的信息检索能力。

AI与计算

Bitte AI MCP 代理服务器

一个基于MCP协议的代理服务器,为LLM应用提供访问Bitte AI平台和Goat SDK的工具能力。

网页与API

Baidu 搜索 MCP 服务器

提供 Baidu 网页搜索和内容抓取功能的 MCP 服务器,为 LLM 应用提供 Baidu 搜索能力。

AI与计算

Spring AI MCP摘要服务器示例

基于Spring AI框架实现的MCP服务器,提供通过工具调用的文本摘要功能。

开发者工具

MCP C# Hello World服务器示例

基于C#和Model Context Protocol SDK构建的简单MCP服务器示例,演示了如何注册和调用工具。

AI与计算

D语言 MCP 服务器库 (mcp-d)

这是一个使用D语言编写的MCP服务器库,专注于通过stdio传输协议为AI语言模型提供上下文信息、工具和Prompt服务。

开发者工具

Worker17 MCP服务器

Worker17 MCP服务器是一个用于监控和控制虚拟Worker17的MCP服务器实现,通过SSE协议与客户端通信,提供Worker状态查询、终止Worker和获取相机图像等功能。

开发者工具

Lite MCP for Javascript

轻量级 Javascript MCP 服务器及客户端 SDK,专注于 SSE 传输,简化 AI Agent 上下文服务搭建。

开发者工具

MCP实验服务器示例

基于.NET开发的MCP服务器示例,演示了如何通过Stdio和SSE协议提供时间和地点相关的工具给LLM客户端。

网页与API

LangChain4j MCP天气服务演示

基于LangChain4j和Quarkus MCP构建的演示项目,提供天气查询工具的MCP服务器实现。

AI与计算

Spring AI MCP Demo Server

基于Spring AI构建的MCP协议演示服务器,提供资源、工具和Prompt模板管理功能。

AI与计算

Gaia-X企业级AI应用平台

Gaia-X是新一代企业AI应用平台,内置MCP协议支持,提供资源、工具和Prompt模板管理,为企业级LLM应用提供安全可扩展的上下文服务框架。

网页与API

Monad Testnet Balance Checker MCP Server

一个 MCP 服务器示例,提供查询 Monad 测试网 MON 代币余额的功能,允许 LLM 通过工具调用获取区块链信息。

开发者工具

Playwright Tooling MCP Server

通过模型上下文协议 (MCP) 为 LLM 代理提供浏览器自动化工具 (Playwright),实现网页交互和信息提取。

开发者工具

MCP Python Demo Server

基于MCP协议的Python服务器示例,演示如何使用FastMCP SDK构建提供资源、工具和Prompt的LLM上下文服务。

生产力应用

Folo MCP Server

Folo MCP Server 是一个基于 Model Context Protocol 的服务器,为 LLM 应用提供访问 Folo RSS 阅读器数据的能力,支持获取订阅列表、条目列表、未读计数等功能。

AI与计算

Qwen-Agent MCP 服务器

Qwen-Agent 框架的 MCP 服务器组件,提供资源管理、工具注册和 Prompt 模板渲染等 MCP 协议核心功能,为 LLM 应用提供上下文服务。

AI与计算

LlamaCloud MCP 服务器示例

演示如何使用 LlamaCloud 搭建 MCP 服务器,通过工具集成 LlamaIndex 云端索引,为 LLM 客户端提供 RAG 能力。

网页与API

MCP Server示例项目

基于Model Context Protocol的服务端实现,提供天气查询和GitHub信息查询工具,增强LLM应用的功能。

AI与计算

Laravel MCP Server

基于Laravel框架实现的Model Context Protocol (MCP) 服务器,提供资源管理和工具调用功能,用于连接LLM客户端。

商业系统

Dynamics 365 MCP Server

一个基于 MCP 协议的服务器,提供访问 Microsoft Dynamics 365 数据的工具,支持用户、账户和商机信息的查询与管理。

数据库与文件

AIStor MCP Server

AIStor MCP Server是为LLM应用设计的后端服务,提供AIStor对象存储的资源访问和工具调用能力,支持LLM安全可扩展地访问对象存储服务。

AI与计算

MCP实时Agent基础设施

基于MCP协议构建,为AI客户端提供实时工具执行、结构化知识检索和动态交互能力。

网页与API

Deco MCP Server

将Deco网站转换为MCP服务器,为LLM客户端提供上下文信息和工具能力。

开发者工具

ADO工作项追踪器MCP服务器

一个基于 Model Context Protocol 的服务器,用于通过工具调用 Azure DevOps REST API 管理工作项。

开发者工具

Springboot MCP服务器快速启动模板

基于Springboot框架搭建的MCP服务器模板项目,支持STDIO和SSE模式,方便开发者快速构建和测试MCP后端服务。

AI与计算

LaTeX to MathML MCP 服务器

该项目是一个基于 Model Context Protocol (MCP) 的服务器,用于将 LaTeX 数学表达式转换为 MathML 格式,支持工具调用和资源访问两种方式。

AI与计算

Spring AI MCP Server示例

基于Spring AI框架构建的MCP服务器示例,用于演示如何为LLM应用提供上下文服务,包括资源管理、工具调用和Prompt模板渲染等核心功能。

数据库与文件

Spring AI课程信息MCP服务器

基于Spring AI MCP Server框架实现的课程信息服务,通过标准化的MCP协议向LLM客户端提供课程数据查询工具。

AI与计算

LLM Bridge MCP

LLM Bridge MCP 是一个基于 Model Context Protocol (MCP) 的服务器,旨在为 LLM 客户端提供统一的接口,以访问和使用多种 LLM 提供商的模型。

开发者工具

Deepin MCP Python 服务器示例

基于Python实现的MCP协议服务器示例,包含天气、文件和Bash命令工具,可与MCP客户端连接并提供上下文服务。

开发者工具

TODO应用MCP服务器

基于Cloudflare Workers和Stytch的TODO应用MCP服务器,提供资源管理和工具调用能力,扩展传统应用以支持AI Agent。

商业系统

Maton Agent Toolkit MCP Server

基于Maton API的MCP服务器实现,提供HubSpot和Salesforce的集成工具,允许LLM客户端通过MCP协议调用和管理CRM数据。

数据库与文件

MCP文件系统服务器 (Go)

基于MCP协议的文件系统服务器,允许LLM客户端安全访问和操作服务器端文件系统资源。

AI与计算

MCP Assistant

MCP Assistant 是一个集成多种计算提供器(MCP)的现代聊天应用,支持调用计算器和网页搜索等外部工具,增强了AI对话功能。

AI与计算

Replicate图像生成MCP服务器

一个基于MCP协议的服务器,通过Replicate模型提供图像生成功能,使LLM客户端能够调用工具生成图像。

AI与计算

MCP-Go 服务器

基于 Go 语言实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具注册和 Prompt 模板等核心功能,用于构建 LLM 应用的上下文服务后端。

AI与计算

iFlytek Workflow MCP Server

基于 MCP 协议的 iFlytek 工作流服务器,为 LLM 应用提供调用讯飞星火工作流的能力。

开发者工具

Dart MCP服务器库

mcp_dart 是一个 Dart 库,用于构建 MCP 服务器,旨在为 LLM 应用提供标准化的上下文数据和工具能力。

AI与计算

KubeChain

KubeChain是一个Kubernetes原生的AI Agent编排器,支持异步工具调用和通过MCP服务器扩展Agent功能。

开发者工具

MCP工具助手示例

本仓库提供了一个基于MCP协议的工具助手示例,包含MCP服务器和客户端实现,展示如何通过MCP连接LLM与外部工具。

生产力应用

简易笔记MCP服务器

这是一个基于Model Context Protocol协议的简单笔记服务器,允许通过工具创建和管理文本笔记。

开发者工具

Semantic Kernel MCP C# 示例服务器

基于 Semantic Kernel 和 MCP C# SDK 构建的示例 MCP 服务器,演示如何通过 MCP 协议提供工具能力。

网页与API

B站视频搜索服务

基于 MCP 协议的 B站视频搜索服务,允许用户通过工具调用搜索 B站 视频内容。

AI与计算

星尘工作流MCP服务器

一个基于讯飞星火认知大模型的工作流MCP服务器,通过MCP协议为LLM客户端提供工作流工具和模型能力。

开发者工具

y-cli MCP Daemon

y-cli MCP Daemon 是一个用于管理和连接多个 MCP 服务器的后台服务,允许 y-cli 客户端通过统一接口安全便捷地调用 MCP 工具和访问资源。

开发者工具

MCP服务器快速上手示例

本仓库提供Model Context Protocol (MCP) 的简介和使用指南,帮助开发者快速搭建和运行MCP服务器,扩展AI模型能力。

开发者工具

GPT CLI 客户端 (MCP增强)

一个命令行工具,通过集成 Model Context Protocol (MCP) 服务器,增强 GPT 的功能,实现工具调用和上下文管理。

AI与计算

ACI.dev MCP 服务器

基于ACI.dev平台的MCP服务器,提供应用工具的便捷访问和统一管理,支持工具发现和动态执行,简化LLM应用与外部功能的集成。

AI与计算

Pica MCP Server

Pica MCP Server作为LLM的上下文服务,集成Pica平台连接和能力,支持通过工具和资源访问各种API。

AI与计算

Llama Stack Server

Llama Stack Server是一个应用后端,旨在通过标准化的方式为LLM客户端提供上下文信息和功能,支持资源管理、工具调用和Prompt模板定制。

开发者工具

Godot MCP Server SDK

用于在Godot引擎中快速开发MCP应用后端的SDK,提供资源管理、工具注册和Prompt模板等核心MCP服务器功能。

数据库与文件

Memobase MCP Server

Memobase MCP Server 是一个基于 Model Context Protocol 的后端实现,专注于用户和 Blob 数据管理,通过工具提供数据访问能力,为 LLM 应用提供上下文服务。

AI与计算

AI Playground MCP Server

aiPlayground MCPServer 是一个使用 Model Context Protocol (MCP) 框架构建的简单 MCP 服务器示例,演示了如何通过标准化的协议向 LLM 客户端提供上下文服务,包括资源管理和工具注册。

开发者工具

危险的MCP示例服务器

一个演示MCP工具安全风险的简单示例服务器,展示了恶意工具如何访问敏感信息。

开发者工具

Haze Echo MCP Server

一个简单的MCP服务器示例,提供回声(Echo)工具,用于演示MCP服务器的基本功能。

AI与计算

Dify MCP Server

Dify MCP Server是基于Model Context Protocol的应用后端,为Dify AI应用提供资源、工具和Prompt模板的托管、管理和执行能力,支持LLM客户端通过JSON-RPC协议进行交互。

网页与API

MCP Server Flask 封装

通过 Flask 封装 MCP 客户端,将本地 MCP Server 服务暴露为 HTTP API,方便 Coze/Dify 等平台集成。

生产力应用

WayStation MCP Server

WayStation MCP服务器作为LLM与生产力工具之间的桥梁,提供工具管理和执行能力,实现LLM与外部应用的集成。

AI与计算

Ollama MCP示例服务器

基于MCP协议实现的示例服务器,集成Ollama模型,提供数学计算工具和动态问候资源。

桌面与硬件

Adfin MCP 服务器

为 Claude Desktop 提供 Adfin 服务和本地文件系统访问能力的 MCP 服务器实现。

AI与计算

Spring AI信用评分MCP服务器

基于Spring AI工具调用的MCP服务器示例,用于信用评分分析,集成内外部数据源,并通过Slack发布结果。

开发者工具

MCP Agent示例服务器

基于FastMCP框架构建的MCP服务器示例,提供文档检索工具,演示MCP服务器的基本功能和使用方法。

网页与API

天气工具 MCP 服务器

一个简单的 MCP 服务器实践项目,提供天气预报和警报查询工具,通过 MCP 协议与客户端交互。

AI与计算

Perplexity MCP 服务器

基于MCP协议,将Perplexity API模型能力封装为工具,提供模型问答服务的MCP服务器。

AI与计算

MCP Fun Examples

演示了如何使用 FastMCP 框架构建和运行 MCP 服务器,包含 BMI 计算工具和 MySQL 数据库资源访问。

AI与计算

Easy MCP Server

一个轻量级的Python MCP服务器实现,通过SSE为LLM客户端提供上下文和工具能力。

开发者工具

时间显示MCP服务器

一个简单的MCP服务器,提供获取当前时间的功能,演示了MCP服务器的基本工具注册和Stdio传输协议的使用。

开发者工具

MCP测试服务器

一个用于Model Context Protocol (MCP) 协议的简单测试服务器,提供资源、工具和Prompt模板管理功能。

网页与API

天气MCP服务器

一个基于Model Context Protocol (MCP) 的服务器,提供天气预报和警报等实用工具,可通过SSE或Stdio协议连接。

网页与API

Spotify MCP Server

一个连接 Spotify API 并通过 Claude AI 提供音乐发现和互动功能的 MCP 服务器。

开发者工具

FastMCP轻量级服务器

基于FastMCP框架构建的轻量级MCP服务器,专注于提供工具注册和生命周期管理,简化LLM应用后端开发。

AI与计算

Port MCP Server

Port MCP Server通过MCP协议使LLM客户端能够调用Port.io的AI Agent工具,实现与Port.io平台的集成。

开发者工具

MCP Demo Server

演示Model Context Protocol (MCP) 服务器的核心功能,包括工具、资源和Prompt模板的定义与使用。

开发者工具

AiderDesk MCP Server

AiderDesk MCP Server 为 AiderDesk 应用提供 MCP 协议支持,允许 LLM 客户端通过标准化的方式与其交互,管理上下文文件和执行代码操作。

AI与计算

Stack AI 工作流 MCP 服务器

Stack AI 工作流 MCP 服务器是一个桥梁,让兼容 MCP 协议的客户端能够调用和执行 Stack AI 平台上的工作流,并获取结构化结果。

网页与API

Encore天气MCP服务器示例

使用Encore框架构建的MCP服务器示例,提供天气查询工具,演示了MCP协议在实际应用中的使用。

AI与计算

Demo MCP Server

基于 Model Context Protocol 的演示服务器,提供知识存储和检索功能,并通过工具和资源暴露给 MCP 客户端。

开发者工具

FastMCP示例服务器

基于FastMCP框架实现的简单MCP服务器示例,提供一个hello_world工具,演示基本的MCP客户端-服务器交互。

AI与计算

Dify MCP 服务器插件

将 Dify 应用转换为 MCP 服务器的插件,允许 LLM 客户端通过 MCP 协议调用 Dify 应用的功能。

网页与API

MCP天气服务示例

一个基于MCP协议的天气信息服务,通过工具提供天气预报和警报数据,供LLM客户端调用。

网页与API

MCP Demo Weather Server

一个演示性质的MCP服务器,提供天气查询工具和Prompt模板,展示MCP服务器的基本功能。

网页与API

FastAPI MCP Server

基于FastAPI框架实现的MCP服务器,旨在为AI助手提供统一的工具和数据源访问接口。

AI与计算

QQ机器人MCP服务

一个基于Model Context Protocol (MCP) 实现的服务器,旨在为QQ机器人提供上下文信息和工具调用能力。

桌面与硬件

语音助手MCP音乐播放器服务端

一个基于MCP协议的音乐播放器服务器,通过工具提供音乐播放能力,可与LLM客户端协同工作。

AI与计算

CustomGPT MCP集成示例服务器

本仓库提供了一个使用FastMCP库构建的MCP服务器示例,用于将CustomGPT的功能集成到支持MCP协议的LLM客户端,例如Claude。

AI与计算

AgentCraft MCP Server

AgentCraft MCP Server为AI Agent提供安全可扩展的上下文服务,支持数据交换和工具调用,是企业级AI应用的基础设施。

AI与计算

OWL多智能体协作框架

OWL是一个先进的多智能体协作框架,集成了模型上下文协议(MCP),旨在简化AI模型与工具及数据源的标准化交互,实现高效的任务自动化。

网页与API

WordPress REST API MCP Server

一个基于MCP协议的WordPress REST API服务器,提供WordPress网站内容和功能的访问能力。

生产力应用

需求收集MCP服务器

用于项目需求收集和管理的MCP服务器,提供需求、干系人和项目管理工具,支持工具调用和数据持久化。

AI与计算

Spring AI MCP 服务示例

演示如何使用 Spring AI 构建 MCP 服务器,提供地理编码和时区查询工具,供 LLM 客户端调用。

网页与API

JavaScript MCP天气服务示例

这是一个使用 JavaScript 开发的 MCP 服务器示例,演示了天气工具和 Prompt 功能。

AI与计算

gomcptest:自定义Host的MCP概念验证服务器

gomcptest 是一个 Model Context Protocol (MCP) 服务器的概念验证项目,演示了如何使用自定义构建的主机来实现 MCP 协议,并集成了 OpenAI 兼容 API 和 Google Gemini,用于测试 Agentic 系统。

生产力应用

AI待办事项日历助手MCP服务器

基于OpenAI Assistant API和Google日历API构建的AI待办事项和日历助手,通过MCP协议提供标准化工具调用和上下文管理能力。

网页与API

时间显示MCP服务器示例

一个简单的MCP服务器示例,通过工具提供日本时间的查询功能,演示了MCP服务器的基本结构和工具注册。

网页与API

Symbol区块链MCP工具服务器

基于MCP协议实现的Symbol区块链数据查询服务器,为LLM应用提供账户和马赛克信息查询工具。

桌面与硬件

远程桌面控制MCP服务器

提供通过MCP协议远程控制和操作计算机桌面环境的服务端实现,支持屏幕截图、鼠标键盘操作和bash命令执行等工具。

AI与计算

mcp-ectors

mcp-ectors 是一个高性能的 MCP SSE 服务器,使用 Rust 和 Actors 构建,旨在为 LLM 提供工具、资源和 Prompt 模板的集成和管理能力。

开发者工具

Orq MCP Server

Orq MCP Server提供开发者友好的Typescript SDK 和 MCP 服务器实现,用于管理 LLM 应用的资源、工具和 Prompt,符合 Model Context Protocol 标准。

开发者工具

MCP Clojure SDK

用于构建 MCP 服务器的 Clojure SDK,提供资源、工具和 Prompt 模板管理功能。

AI与计算

ChatLLM

AI聊天应用后端服务,集成多种LLM,支持会话管理、工具调用和MCP服务器集成。

网页与API

简易天气查询MCP服务器

一个简单的MCP服务器示例,提供查询城市天气信息的功能,演示了如何使用MCP协议注册和调用工具。

AI与计算

LocalMCP服务器

LocalMCP是一个本地自托管的MCP服务器,支持多种服务集成和本地大模型,并通过Web界面进行管理。

AI与计算

serverless rag mcp server

基于Model Context Protocol (MCP) 构建的服务器,集成了Sionic AI Storm平台的RAG能力,为LLM客户端提供工具和资源访问。

商业系统

mcp server salesforce

mcp-server-salesforce 是一个 MCP 服务器实现,提供笔记的存储、总结和添加功能,可作为与 Salesforce 集成的基础。

AI与计算

allnads

AllNads仓库实现了基于Model Context Protocol的MCP服务器,为AI智能体提供访问区块链数据和执行智能合约交易的工具,是AllNads平台后端架构的重要组成部分。

AI与计算

gomcptest

该项目为MCP协议的概念验证,包含模拟OpenAI API的主机和多个MCP工具(如Bash、文件编辑等),演示了如何构建与MCP服务器交互的LLM应用后端。

AI与计算

kno2gether gemini multimodal playground

一个基于WebSocket的MCP代理服务器,用于连接和管理多个MCP后端服务器,并通过Web界面为LLM应用提供工具调用能力。

AI与计算

mcp

mcp.rs 是一个用 Rust 语言实现的高性能 Model Context Protocol (MCP) 服务器,旨在为 AI 应用提供标准化的上下文和资源访问能力。

AI与计算

AI from scratch

一个简单的MCP服务器示例,提供加、减、乘、除基础计算器功能,作为工具供LLM客户端调用。

开发者工具

mcp

一个基于 Model Context Protocol 的 VS Code 扩展,实现了简单的 MCP 服务器,提供 Echo 工具和 SSE 通信功能,用于测试和演示 MCP 服务器的基本功能。

开发者工具

mcp hello world

一个简单的MCP服务器示例,提供了一个问候工具 (hello-world),用于演示MCP服务器的基本功能。

开发者工具

databutton mcp

Databutton MCP服务器用于应用初步规划和创建。它提供资源访问、工具调用和Prompt模板,帮助用户在Databutton平台上构思和提交应用需求。

AI与计算

mcp js server

mcp-js-server 是一个基于 JavaScript 的 MCP 服务器 SDK,用于构建能够向 LLM 应用提供资源、工具和 Prompt 模板的后端服务。

AI与计算

demo mcp on amazon bedrock

基于Amazon Bedrock的MCP服务器演示项目,提供ChatBot API并集成多种MCP工具,扩展大模型应用场景。

AI与计算

mcp core

mcp-core 是一个 Rust 库,实现了 Model Context Protocol (MCP) 服务器核心功能,支持通过 Stdio 和 SSE 传输协议提供工具注册、调用等服务,为 LLM 应用构建可扩展的上下文服务后端。

开发者工具

mcp client agent

提供一个简单的MCP服务器示例,用于演示MCP客户端代理的功能。

网页与API

mcp proxy pydantic agent

该仓库提供了一个基于MCP协议的天气信息服务器示例,通过工具提供天气查询功能,演示了如何将外部数据源接入LLM应用。

开发者工具

mcp go

Go语言MCP服务器SDK,提供资源、工具和Prompt模板管理功能。

开发者工具

LeanTool

LeanTool MCP服务器是一个基于Model Context Protocol的应用后端,为LLM客户端提供Lean代码检查工具,支持通过MCP协议进行交互,辅助LLM进行Lean定理证明和代码生成。

AI与计算

gomcp

gomcp 是一个使用 Go 语言编写的 Model Context Protocol (MCP) 服务器的非官方实现,旨在为 LLM 应用提供工具和 Prompt 服务。

网页与API

mcp client server host demo

一个基于 Model Context Protocol (MCP) 的宝可梦数据服务器演示项目,提供宝可梦信息查询和攻击工具,可通过 HTTP 接口与 LLM 集成。

AI与计算

hermes mcp

Hermes MCP 是一个用 Elixir 开发的 MCP 服务器和客户端库,提供了高性能的 MCP 协议服务端实现,支持资源、工具和 Prompt 管理。

开发者工具

mcp swift sdk

mcp-swift-sdk 是一个 Swift SDK,用于构建 MCP 客户端和服务器,帮助开发者在 Swift 应用中集成 Model Context Protocol 功能。

数据库与文件

minima

Minima MCP Server为Anthropic Claude等LLM客户端提供本地文件RAG能力,支持工具调用和Prompt定制,实现安全可扩展的上下文服务。

AI与计算

mcp workers ai

mcp-workers-ai 是一个为 Cloudflare Workers 环境设计的 MCP 服务器 SDK,专注于为 LLM 提供工具调用能力。

生产力应用

mcp server yahoo finance

该MCP服务器提供简单的笔记存储和管理功能,允许LLM客户端创建、访问和总结笔记内容,包含资源管理、Prompt生成和工具调用等MCP核心能力。

网页与API

mcp server perplexity

Perplexity MCP Server 实现了 ask_perplexity 工具,允许 LLM 客户端通过 Perplexity API 获取带引用的信息,用于研究、事实核查等场景。

数据库与文件

mcp server llamacloud

连接 LlamaCloud 知识库的 MCP 服务器,通过工具提供知识库信息检索功能,为 LLM 应用提供上下文数据。

AI与计算

mcp server openai

通过MCP协议连接OpenAI,为LLM客户端提供访问OpenAI模型能力。

通信与社交

mcp server chatsum

该MCP服务器用于查询和总结聊天记录,通过提供的工具,用户可以检索特定聊天内容,并结合LLM进行对话总结。

生产力应用

mcp google calendar

一个MCP服务器,允许AI助手通过工具调用创建和管理Google日历事件。

网页与API

mcp api expert

该项目是一个MCP服务器,允许LLM客户端通过工具调用发送HTTP请求,连接和利用外部REST API。

网页与API

weather mcp server

一个简单的天气MCP服务器示例,提供查询美国国家气象局(NWS)天气警报和预报的工具。

生产力应用

convex mcp server

基于Convex云平台的MCP服务器示例,提供简单的笔记资源管理和创建笔记工具。

AI与计算

unichat mcp server

基于MCP协议的Unichat服务器,通过工具和预定义的Prompt模板,为Claude等客户端提供访问多种LLM模型(如OpenAI, MistralAI)的能力。

网页与API

python mcp server

Linkup for Claude MCP服务器为 Claude 等 LLM 提供联网搜索能力,通过 Linkup 平台访问实时信息和优质内容。

开发者工具

cloneserver

该仓库提供了一系列MCP协议服务器的示例实现,演示了资源管理、工具调用和Prompt模板等核心功能,涵盖文件系统、Google Drive、PostgreSQL和Git等多种数据源。

开发者工具

mcp wait

该仓库提供了基于 Model Context Protocol (MCP) 的等待服务器的 TypeScript 和 Python 实现,主要功能是提供一个名为 `wait_seconds` 的工具,允许客户端请求服务器等待指定的秒数后返回响应,用于演示或测试 MCP 客户端与服务器的交互延迟。

网页与API

mcp playground

该仓库提供了一个基于Model Context Protocol (MCP) 的天气服务器示例,以及一个使用OpenAI模型作为MCP客户端主机的示例,演示了如何通过MCP协议调用工具获取天气预报。

数据库与文件

MCPTest

MCPTest仓库提供了一系列基于Model Context Protocol (MCP) 的服务器实现,包括文件系统操作、MySQL数据库查询、DuckDuckGo在线搜索和网页内容提取等功能,旨在演示如何在LLM应用中集成外部数据源和工具。

生产力应用

notepad server

notepad-server 是一个简单的 MCP 服务器,提供创建、删除、更新和查看Notepad的功能,演示了MCP协议工具的使用。

数据库与文件

mcp chat

mcp-chat仓库提供了一个简单的MCP服务器实现,允许LLM客户端通过工具调用读取服务器本地文件系统中的文件。

开发者工具

python pip mcp

提供了一个基于Python实现的最小化MCP服务器示例,包含日期时间工具,用于演示MCP协议服务器端的基本功能。

生产力应用

dice server

dice-server 是一个基于 MCP 协议的简单笔记服务器,允许用户通过客户端创建、读取、列出和总结文本笔记。

网页与API

mcp gateway

MCP Gateway 是一个桥接本地 MCP STDIO 服务器到 HTTP 客户端的网关,通过 REST API 和 SSE 实现对 MCP 功能的远程访问和管理。

开发者工具

redmine mcp server

Redmine MCP Server插件为LLM应用提供项目管理系统Redmine的上下文信息和工具能力,通过SSE协议通信。

AI与计算

random num mcp

一个简单的MCP服务器,通过工具调用为LLM应用提供生成随机数的功能。

网页与API

mcp quickstart

该项目是一个快速启动的MCP服务器示例,提供天气查询工具,演示了如何使用Model Context Protocol (MCP) 框架构建可与LLM客户端集成的上下文服务。

网页与API

claudemcp

claudemcp仓库提供了一个基于MCP协议的天气服务器示例,允许LLM客户端通过工具调用获取实时的天气警报和天气预报信息。

网页与API

mcp init

一个简单的MCP服务器,通过OpenWeatherMap API提供当前天气信息和天气预报工具。

数据库与文件

datastax mcp monsters

基于MCP协议的服务器,提供D&D怪兽数据查询功能,支持按名称检索和查找相似怪兽。

生产力应用

notes

一个基于 Model Context Protocol 的笔记服务器,提供笔记的存储、检索、总结和添加功能,可通过 MCP 协议与 LLM 客户端交互。

网页与API

weather

weather MCP server是一个提供天气信息查询功能的后端服务,通过资源和工具向LLM客户端提供实时天气和天气预报数据。

数据库与文件

mcp ag2 example

该项目是一个本地文件系统MCP服务器示例,允许AI代理通过资源和工具访问和操作本地文件。

开发者工具

mcp server

该仓库实现了一个简单的MCP服务器,提供宝可梦数据作为资源,并提供一个工具来获取宝可梦的统计信息,用于演示MCP服务器的功能。

AI与计算

mcp workers ai

mcp-workers-ai 是一个用于 Cloudflare Workers 的 MCP 服务器 SDK,旨在简化工具的加载和调用,方便 LLM 客户端通过 MCP 协议与之交互,实现工具扩展。

生产力应用

AI Claude MCP

AI_Claude_MCP 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在通过 Claude 与 Amazon Fresh 交互,实现创建购物清单并生成 Amazon Fresh 链接的功能,方便用户进行在线生鲜购物。

开发者工具

automcp

AutoMCP是一个轻量级、可配置的MCP服务器,支持通过YAML/JSON配置服务和操作,并提供基于标准协议的模型上下文服务。

网页与API

fetch

mcp_fetch仓库实现了一个简单的MCP服务器,通过集成的网页分析工具,允许LLM客户端(如Claude Desktop)分析指定URL的网页内容,提取标题、链接、段落和图片数量等信息。

开发者工具

smallcloud mcp server

SmallCloud MCP Server是一个演示项目,展示了如何为Claude Desktop构建一个基于Model Context Protocol (MCP) 的服务器,提供了一个简单的“hello world”工具作为示例。

网页与API

mcp perplexity

基于MCP协议,集成Perplexity API,为LLM提供AI增强的互联网搜索工具和带来源引用的答案。

网页与API

rsus

rsus 是一个 MCP 服务器,通过集成 Brave Search API,为 LLM 应用提供网页搜索和本地搜索能力。

AI与计算

Function Hub

Function Hub MCP Server 是一个基于 Model Context Protocol 的服务器实现,它将 Function Hub API 提供的功能以工具的形式暴露给 LLM 客户端,允许 LLM 通过 MCP 协议调用 Function Hub 中的各种工具。

数据库与文件

UniProt

UniProt MCP Server为AI助手提供蛋白质信息查询功能,通过工具调用获取蛋白质的功能描述、序列等信息。

AI与计算

Mistral AI

该项目是一个基于 Model Context Protocol (MCP) 的服务器示例,它提供工具以便 LLM 客户端调用 Mistral AI 的聊天模型,支持文本和图像输入。

商业系统

Ntropy

Ntropy MCP服务器是一个应用后端,通过提供工具调用Ntropy API,实现银行交易数据的增强和账户持有者创建等功能,为LLM应用提供金融数据处理能力。

数据库与文件

File Search Service

该项目实现了一个基于MCP协议的文件搜索服务器,允许LLM客户端通过工具调用在服务器文件系统中搜索文件。

桌面与硬件

Eagle.cool

Eagle.cool 仓库实现了一个简单的 MCP 服务器,用于与 Eagle 应用程序交互,目前提供检查 Eagle 应用连接状态的工具,可与 Claude Desktop 等 MCP 客户端配合使用。

AI与计算

Livecode.ch

Livecode MCP Server是一个基于MCP协议的io.livecode.ch代码运行工具服务器,允许LLM客户端通过工具调用在io.livecode.ch上运行代码。

网页与API

DataBridge

DataBridge MCP服务器是一个示例,演示了如何使用FastMCP框架构建一个能够管理数据桥接和执行信息检索工具的MCP服务器。

网页与API

Python Docs

该项目是一个MCP服务器,通过Brave搜索API为LLM客户端提供Python文档检索工具。

网页与API

Location

Location MCP Server是一个简单的MCP服务器,提供获取用户位置的工具和Prompt,支持静态配置和网络IP定位两种方式。

网页与API

BART (San Francisco Transit)

提供天气和旧金山湾区捷运(BART)实时信息的MCP服务器,支持查询天气警报、天气预报和BART列车到站信息。

桌面与硬件

Audio Playback

Audio Playback MCP Server是一个简单的MCP服务器,允许LLM客户端通过工具调用控制服务器端的音频播放功能,包括播放指定路径的MP3或WAV音频文件以及停止当前播放。

AI与计算

Python Run

该项目是一个Python实现的MCP服务器,提供通过标准API接口安全执行Python代码的功能。

网页与API

ScreenshotOne

ScreenshotOne MCP Server是一个基于Model Context Protocol的服务器,提供网页截图工具,允许LLM客户端调用以获取指定URL的网页截图。

开发者工具

Modal (Serverless Python)

Modal MCP Server 是一个允许LLM客户端通过MCP协议在Modal云平台部署和调用Python应用的后端服务。

开发者工具

Nvidia Brev

Brev MCP 服务器是一个基于 Model Context Protocol 的后端实现,用于连接 Brev 云平台,提供云资源信息查询和工作空间管理等工具能力,供 LLM 客户端调用。

数据库与文件

File Editor

该项目是一个基于 Model Context Protocol (MCP) 的文件编辑器服务器,允许LLM客户端通过工具调用进行文件查看、创建、替换、插入和撤销编辑等操作。

数据库与文件

Microsoft SQL Server (MSSQL)

mssql-mcp-server是一个MCP服务器,允许LLM安全地与Microsoft SQL Server数据库交互,实现数据查询和工具调用。

开发者工具

OpenRPC

一个基于 OpenRPC 协议的 MCP 服务器,通过工具提供 JSON-RPC 服务调用和发现能力,允许 LLM 客户端与 JSON-RPC 服务交互。

通信与社交

WeChat Summarizer

WeChat Summarizer MCP服务器是一个用于查询和总结微信聊天记录的应用后端,通过MCP协议向LLM客户端提供访问用户微信聊天数据的能力,并支持根据查询条件检索和返回聊天信息。

商业系统

Holaspirit

Holaspirit MCP Server为AI助手提供标准化的MCP接口,使其能够通过工具访问和操作Holaspirit组织的数据,实现与Holaspirit API的集成。

网页与API

REST APIs

MCP API Connect 是一个 MCP 服务器,允许 LLM 客户端通过预定义的工具调用任何 REST API。

网页与API

Exa Search

这是一个基于 Model Context Protocol (MCP) 的服务器实现,提供通过 Exa.ai 进行网页搜索的功能,并通过标准化的 MCP 协议与客户端通信。

AI与计算

DigitalFate

DigitalFate是一个企业级AI Agent框架,提供LLM调用、工具集成和任务编排能力,并兼容MCP协议,用于构建可扩展的LLM应用后端服务。

网页与API

Perplexity

perplexity-mcp是一个MCP服务器,通过Perplexity AI API为LLM客户端提供网页搜索功能。

AI与计算

Ollama

MCP Ollama是一个MCP服务器,它将Ollama大语言模型的功能通过Model Context Protocol (MCP) 协议暴露出来,允许MCP客户端(如Claude Desktop)调用Ollama的模型,进行模型列表查询、模型信息查看和模型问答等操作。

生产力应用

MCP2Lambda

MCP2Lambda 是一个 MCP 服务器实现,它充当 MCP 客户端与 AWS Lambda 函数之间的桥梁,使 LLM 能够以工具的形式调用 AWS Lambda 函数,扩展 LLM 的能力以访问后端服务和资源。

开发者工具

Dify Server

集成 Dify AI API 的 MCP 服务器,提供 Ant Design 组件代码生成工具,支持文本和图片输入,通过标准输入输出与客户端通信。

商业系统

Shopify MCP Server

Shopify MCP Server为LLM客户端提供访问Shopify店铺数据的工具,如商品和客户列表。

开发者工具

Airflow MCP Server

通过 Model Context Protocol 协议,将 Airflow 任务调度平台的功能以工具形式提供给 LLM 客户端调用的 MCP 服务器。

网页与API

Youtube Summarizer

Youtube Summarizer MCP Server是一个基于MCP协议的服务端,将Youtube摘要API封装为工具,供LLM应用调用,实现视频摘要和聊天功能。

网页与API

Coinmarket Server

Coinmarket MCP服务器是一个应用后端,通过MCP协议向LLM客户端提供来自Coinmarket API的加密货币市场数据,包括最新的加密货币列表和报价信息,支持以资源和工具两种方式访问。

开发者工具

Dify Workflow Server

Dify Workflow Server是一个MCP服务器,它允许LLM客户端通过工具调用来执行和管理Dify平台上的工作流。

网页与API

Linkup Search

基于MCP协议实现的Linkup搜索服务,为LLM提供联网搜索工具,扩展其知识范围至实时信息和优质内容。

网页与API

Penumbra Blockchain

Penumbra MCP服务器为LLM应用提供访问Penumbra区块链的工具,实现隐私交易查询、验证器信息、DEX状态和治理提案等功能。

数据库与文件

Supabase Notes

基于Supabase的MCP服务器,提供数据库查询、记录增删改查工具,方便LLM应用访问Supabase数据。

AI与计算

HuggingFace Space

mcp-hfspace 是一个 MCP 服务器,它连接了 Claude Desktop 等 MCP 客户端与 Hugging Face Spaces,使得用户可以通过 Claude 等工具调用 Hugging Face Spaces 上托管的各种模型和服务,例如文生图、语音合成、视觉模型等。

网页与API

HotNews Server

HotNews Server是一个MCP服务器,提供来自中国社交平台和新闻网站的实时热点新闻,支持通过工具调用获取指定平台的热榜数据,以Markdown格式返回。