基于 Model Context Protocol (MCP) 的后端服务器实现,暴露 Zendesk 的资源、操作与查询为可由 AI 客户端调用的工具集合,支持通过标准 MCP 传输(如标准输入输出)与客户端进行 JSON-RPC 通信,提供会话管理和可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供标准化的上下文资源、可调用的工具(Tools)以及可渲染的 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输通道(如标准输入/输出、SSE、WebSocket 等)实现安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,面向 Zigbee2MQTT 的场景,通过 JSON-RPC 提供 Tools、Prompts 等能力以供大语言模型调用和上下文服务。
一个基于 MCP 的服务器实现,提供商品场景的语义搜索、工具调用和向量存储等能力,并通过 SSE 传输与客户端通信的 MCP 服务器实现示例。
基于 Model Context Protocol (MCP) 的 JSON-RPC MCP 服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)的托管与管理,并通过统一的 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输场景。仓库中包含用于 MCP 校验的工具定义、JSON-RPC 路由实现,以及在 Next.js 环境下的服务器端实现代码。该实现不仅提供客户端调用示例,还实现了服务端的鉴权、能力声明与请求分发等核心功能。<div align="center">(MCP 服务器核心功能在 src/app/api/mcp/route.ts,可处理 initialize、tools/list、tools/call、ping 等方法并返回标准 JSON-RPC 响应。)</div>
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示的托管与管理,通过 JSON-RPC 与 LLM 客户端通信;整合 Claude Code、WebSocket 通信、实时会话监控与 API 代理等组件,实现可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的后端实现,为 Huppa 提供 gym 课程查询、预订、等待名单、会员信息等资源的统一访问与工具执行能力,供大型语言模型(LLM)通过 MCP 进行上下文获取和任务执行。
基于 Model Context Protocol(MCP)的后端服务器,实现资源、工具与 prompts 的管理与执行,提供标准化的 JSON-RPC 风格请求/响应,并通过 stdio 传输与 MCP 客户端对接,同时集成 DynamoDB 存储以管理上下文数据。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于通过 JSON-RPC 与 LLM 客户端协同,管理多设备串口资源、注册并执行工具(Tools)、以及提供动态的提示/模板渲染能力,核心在于为 AI 应用提供统一的上下文和外部功能访问接口。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 RuVector 生态的一部分,负责通过标准化的 JSON-RPC 向 LLM 客户端提供上下文信息和功能。核心职责包括托管与管理 Resources(资源数据访问)、注册并执行 Tools(工具调用)、定义与渲染 Prompts(提示模板),并支持多传输协议(如 Stdio、SSE、WebSocket)。服务器端负责会话管理、能力声明与扩展性配置,适配多种客户端场景,提供安全、可扩展的上下文服务框架,支持与 RuVector 其他组件的无缝对接。
基于 Model Context Protocol 的 MCP 服务端,提供 ERA5 气候数据的资源管理、工具执行与 Prompt/模板渲染等能力,并通过 JSON-RPC 形式与 LLM 客户端(如 Claude Desktop、IDE 等)进行通信。
基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器端提供对外的上下文服务。核心职责包括托管与管理资源(Resources)、注册与执行工具(Tools),以及定义与渲染 Prompt 模板,支持与 LLM 客户端通过 JSON-RPC 进行交互。服务器实现了 MCP 的核心接口(如 initialize、tools/list、tools/call),并通过 Bearer API key 进行鉴权、会话管理与策略检查,提供基本的 JSON-RPC 请求处理和响应。代码基于 Node.js + TypeScript,使用 Express 路由挂载在 /mcp 路径,并结合 Prisma 管理数据。
基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具与提示模板的标准化暴露,支持 HTTP 流式传输与 stdio 传输等多种传输方式,供各类 LLM 客户端(如 Claude Desktop、VS Code Copilot、OpenWebUI 等)进行工具调用与上下文查询。
基于 Model Context Protocol (MCP) 的轻量级后端服务器,提供对 LLM 客户端的上下文服务(资源、工具、提示等),通过 JSON-RPC 进行通信,支持以标准化方式读取资源、注册并执行工具、渲染 Prompt 模板,核心实现包含服务器端的请求/响应处理、会话管理与多传输协议支持(以 stdio 为核心的实现,具备行分隔及 Content-Length framing 方式)。
基于 Model Context Protocol 的多 MCP 服务器后端网关,提供统一的 JSON-RPC 服务来托管资源、注册工具并渲染提示模板,通过 FastAPI 将多个独立 MCP 服务器整合为一个可扩展的上下文服务入口。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册与执行、资源访问、以及与 LLM 的对话上下文渲染等核心能力。通过 JSON-RPC 与客户端通信,采用 STDIO 传输实现本地进程间通信,适用于 Claude Code 的 Telegram 插件后端场景。该实现涵盖工具调用、批量通知、审批流、AFK/监听等功能模块,具备完整的服务端能力与测试用例。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,支持 stdio、HTTP、SSE 等传输,并通过 JSON-RPC 与客户端进行消息交互,具备会话管理、能力声明及多传输协议支持等能力。
基于 Model Context Protocol(MCP) 的后端服务,作为本地大模型应用的上下文提供者。该服务器托管与管理 Resources(数据资源)、Tools(可注册并供 LLM 调用的外部功能)以及 Prompts(Prompt 模板渲染),通过 JSON-RPC 与客户端通信,完成会话管理、能力声明以及跨传输协议(如 Stdio、SSE、WebSocket)的上下文服务,方便编辑器、IDE 以及本地模型进行组合式推理与扩展。仓库中明确包含 MCP 集成组件、启动脚本及相关文档,具备对 MCP 客户端的完整支持能力。
基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。
将 Fess 转换为基于 MCP 的服务器,提供 JSON-RPC 2.0 的接口,用于资源、工具、提示等的管理与调用
一个将 LangChain 代理与 MCP 服务器整合的后端平台,包含可运行的 MCP 服务器示例(Mock),用于向大模型客户端提供资源、工具和提示模板等上下文信息,并提供完整的服务端框架以注册、管理 MCP 服务器和工具权限,支持实时通信与安全认证等能力。
基于 Model Context Protocol (MCP) 的后端服务实现,为大语言模型客户端提供 Bristol Stool 分类工具的统一访问接口,按标准化的 JSON-RPC 形式处理工具调用与结果返回。
该仓库提供了一个基于Google Agent Development Kit (ADK) 构建的个性化购物智能代理,并展示了如何将其部署为支持MCP协议的服务器,以提供上下文信息和工具服务。
一个预配置的容器化开发环境,内置 Claude CLI 和基于 Chrome DevTools 的 MCP 服务器,支持 Docker 和 Podman。
一个可扩展的AI Agent运行时后端,通过Model Context Protocol (MCP) 和A2A协议暴露AI Agent能力,提供工具调用、上下文管理和会话交互服务。
一个高性能的自主网关服务,通过SSE流和MCP协议将Web应用与Conductor智能体执行系统连接。
将 Perplexity AI 问答和搜索能力通过 Model Context Protocol 封装为工具,为 LLM 客户端提供高级上下文服务。
这是一个基于.NET MCP SDK构建的天气信息服务,可作为MCP服务器托管在Azure Functions上,为LLM提供天气查询工具。
一个现代化、生产就绪的Model Context Protocol (MCP) 服务器,用于将Node-RED的流、节点和运行时信息暴露给大型语言模型(LLM)客户端。
提供AI赋能的API开发指导和OpenAPI构建工具,通过MCP协议与LLM客户端交互。
一个基于MCP协议,用于向Discord发送通知的服务器,可在Cloudflare Workers上部署。
一个基于 MCP 协议的服务端,使 LLM 能通过工具和资源与 Databricks Genie 交互,获取数据和答案。
在 Internet Computer (IC) 上构建 Model Context Protocol (MCP) 服务器的开发工具包。
通过 Model Context Protocol (MCP) 连接 AI 客户端与 DigitalOcean 资源,实现智能化的云管理。
通过自然语言简化Kubernetes管理,并可作为MCP服务器提供Kubernetes工具能力给LLM客户端。
通过Model Context Protocol工具管理AWS Lake Formation权限
标准化AI agent开发、部署与互操作框架,提供构建和运行MCP兼容服务器的能力。
通过 Model Context Protocol (MCP),为 LLM 提供访问和管理 Cloudera Machine Learning 资源的工具集。
基于 MCP 协议为大型语言模型 (LLM) 提供访问 Apache Doris 数据库的工具和上下文信息。
一个在Node.js环境下通过WebAssembly运行.NET ASP.NET Core实现Model Context Protocol (MCP) 服务器的基础示例。
基于 Model Context Protocol (MCP) 实现的服务器,提供与 Jackal Protocol 分布式存储网络交互的功能。
轻量级网桥,将 Cloudera Agent Studio 功能暴露为 MCP 工具,供大型语言模型客户端调用。
基于 Model Context Protocol 的服务器,提供对 Square Connect API 的标准化访问,赋能大型语言模型与 Square 商业数据和功能交互。
一个基于Model Context Protocol (MCP) 的服务器,通过工具调用为LLM提供Pixabay图片搜索功能。
基于 Model Context Protocol (MCP) 构建 LLM 应用的高效框架,用于创建和编排 Agent、调用工具和管理上下文。
基于Hono框架,实现Model Context Protocol (MCP) 的无状态服务器,优化适配Cloudflare Workers等Serverless环境。
基于 Model Context Protocol 和 Streamable HTTP 协议的服务器端实现,使用 TypeScript 开发,提供资源管理、工具注册和 Prompt 模板等核心 MCP 功能。
此项目演示了如何使用 Genkit 和 MCP 协议,通过 Google Maps API 为 LLM 提供地理位置信息查询等工具。
基于Cloudflare Workers构建的远程MCP服务器,提供资源、工具和Prompt模板管理,并通过OAuth进行安全认证。
基于Cloudflare Workers构建的远程MCP服务器,提供OAuth登录和工具注册能力,可与Claude等客户端集成。
基于AWS Lambda的简易MCP服务器,通过Streamable HTTP协议与客户端通信,提供工具调用功能。
基于Spring AI框架实现的MCP服务器示例,提供元素周期表查询、文件系统访问和地图路线规划等工具服务。
基于AWS Lambda的Streamable HTTP MCP服务器示例,演示了工具调用和实时响应的实现。
本仓库提供了一个MCP客户端示例,用于演示如何通过Model Context Protocol (MCP) 与MCP服务器交互,并探讨工具投毒攻击的可能性。
基于 Azure Functions 构建的 MCP 服务器,为 L2C CTFs 实验环境提供上下文服务和工具调用能力。
基于 Internet Computer 的最小化 MCP 服务器实现,目前仅支持工具 (Tools) 功能和 Streamable HTTP。
演示如何构建一个基于Playwright的Web自动化MCP服务器,并与AWS Bedrock集成,实现LLM Agent能力。
基于AWS Lambda的轻量级MCP服务器,通过Serverless Framework快速部署,提供工具注册和执行能力,简化LLM应用上下文管理。
演示如何使用 Entra ID 认证和 HTTP+SSE 传输协议实现 MCP 服务器,提供调用 Microsoft Graph 获取用户信息的工具。
基于MCP和LangChain的开源AI Agent,用于自动化LinkedIn内容生成和发布,通过本地MCP服务器提供内容搜索工具。
基于Cloudflare Workers构建的远程MCP服务器示例,演示了如何使用OAuth进行身份验证并提供工具功能。
基于Model Context Protocol的示例MCP服务器,提供工具注册和调用能力,支持Stdio和SSE传输协议,用于LLM智能体应用。
基于 MCP 协议的服务器,为 LLM 提供通过 Scrapeless API 进行 Google 搜索的功能,扩展 LLM 的信息检索能力。
轻量级 Javascript MCP 服务器及客户端 SDK,专注于 SSE 传输,简化 AI Agent 上下文服务搭建。
基于LangChain4j和Quarkus MCP构建的演示项目,提供天气查询工具的MCP服务器实现。
通过模型上下文协议 (MCP) 为 LLM 代理提供浏览器自动化工具 (Playwright),实现网页交互和信息提取。
演示如何使用 LlamaCloud 搭建 MCP 服务器,通过工具集成 LlamaIndex 云端索引,为 LLM 客户端提供 RAG 能力。
一个基于 MCP 协议的服务器,提供访问 Microsoft Dynamics 365 数据的工具,支持用户、账户和商机信息的查询与管理。
一个基于 Model Context Protocol 的服务器,用于通过工具调用 Azure DevOps REST API 管理工作项。
基于Springboot框架搭建的MCP服务器模板项目,支持STDIO和SSE模式,方便开发者快速构建和测试MCP后端服务。
基于Cloudflare Workers和Stytch的TODO应用MCP服务器,提供资源管理和工具调用能力,扩展传统应用以支持AI Agent。
基于Maton API的MCP服务器实现,提供HubSpot和Salesforce的集成工具,允许LLM客户端通过MCP协议调用和管理CRM数据。
KubeChain是一个Kubernetes原生的AI Agent编排器,支持异步工具调用和通过MCP服务器扩展Agent功能。
基于 Semantic Kernel 和 MCP C# SDK 构建的示例 MCP 服务器,演示如何通过 MCP 协议提供工具能力。
y-cli MCP Daemon 是一个用于管理和连接多个 MCP 服务器的后台服务,允许 y-cli 客户端通过统一接口安全便捷地调用 MCP 工具和访问资源。
这是一个使用 JavaScript 开发的 MCP 服务器示例,演示了天气工具和 Prompt 功能。
基于Model Context Protocol (MCP) 构建的服务器,集成了Sionic AI Storm平台的RAG能力,为LLM客户端提供工具和资源访问。
Databutton MCP服务器用于应用初步规划和创建。它提供资源访问、工具调用和Prompt模板,帮助用户在Databutton平台上构思和提交应用需求。
基于Amazon Bedrock的MCP服务器演示项目,提供ChatBot API并集成多种MCP工具,扩展大模型应用场景。
gomcp 是一个使用 Go 语言编写的 Model Context Protocol (MCP) 服务器的非官方实现,旨在为 LLM 应用提供工具和 Prompt 服务。
mcp-workers-ai 是一个为 Cloudflare Workers 环境设计的 MCP 服务器 SDK,专注于为 LLM 提供工具调用能力。
Perplexity MCP Server 实现了 ask_perplexity 工具,允许 LLM 客户端通过 Perplexity API 获取带引用的信息,用于研究、事实核查等场景。
连接 LlamaCloud 知识库的 MCP 服务器,通过工具提供知识库信息检索功能,为 LLM 应用提供上下文数据。
提供了一个基于Python实现的最小化MCP服务器示例,包含日期时间工具,用于演示MCP协议服务器端的基本功能。
mcp-workers-ai 是一个用于 Cloudflare Workers 的 MCP 服务器 SDK,旨在简化工具的加载和调用,方便 LLM 客户端通过 MCP 协议与之交互,实现工具扩展。
AI_Claude_MCP 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在通过 Claude 与 Amazon Fresh 交互,实现创建购物清单并生成 Amazon Fresh 链接的功能,方便用户进行在线生鲜购物。
mcp_fetch仓库实现了一个简单的MCP服务器,通过集成的网页分析工具,允许LLM客户端(如Claude Desktop)分析指定URL的网页内容,提取标题、链接、段落和图片数量等信息。
SmallCloud MCP Server是一个演示项目,展示了如何为Claude Desktop构建一个基于Model Context Protocol (MCP) 的服务器,提供了一个简单的“hello world”工具作为示例。
该项目是一个基于 Model Context Protocol (MCP) 的服务器示例,它提供工具以便 LLM 客户端调用 Mistral AI 的聊天模型,支持文本和图像输入。
Ntropy MCP服务器是一个应用后端,通过提供工具调用Ntropy API,实现银行交易数据的增强和账户持有者创建等功能,为LLM应用提供金融数据处理能力。
Eagle.cool 仓库实现了一个简单的 MCP 服务器,用于与 Eagle 应用程序交互,目前提供检查 Eagle 应用连接状态的工具,可与 Claude Desktop 等 MCP 客户端配合使用。
Livecode MCP Server是一个基于MCP协议的io.livecode.ch代码运行工具服务器,允许LLM客户端通过工具调用在io.livecode.ch上运行代码。
ScreenshotOne MCP Server是一个基于Model Context Protocol的服务器,提供网页截图工具,允许LLM客户端调用以获取指定URL的网页截图。
Modal MCP Server 是一个允许LLM客户端通过MCP协议在Modal云平台部署和调用Python应用的后端服务。
mssql-mcp-server是一个MCP服务器,允许LLM安全地与Microsoft SQL Server数据库交互,实现数据查询和工具调用。
Holaspirit MCP Server为AI助手提供标准化的MCP接口,使其能够通过工具访问和操作Holaspirit组织的数据,实现与Holaspirit API的集成。
DigitalFate是一个企业级AI Agent框架,提供LLM调用、工具集成和任务编排能力,并兼容MCP协议,用于构建可扩展的LLM应用后端服务。
MCP2Lambda 是一个 MCP 服务器实现,它充当 MCP 客户端与 AWS Lambda 函数之间的桥梁,使 LLM 能够以工具的形式调用 AWS Lambda 函数,扩展 LLM 的能力以访问后端服务和资源。
集成 Dify AI API 的 MCP 服务器,提供 Ant Design 组件代码生成工具,支持文本和图片输入,通过标准输入输出与客户端通信。
Coinmarket MCP服务器是一个应用后端,通过MCP协议向LLM客户端提供来自Coinmarket API的加密货币市场数据,包括最新的加密货币列表和报价信息,支持以资源和工具两种方式访问。
Penumbra MCP服务器为LLM应用提供访问Penumbra区块链的工具,实现隐私交易查询、验证器信息、DEX状态和治理提案等功能。
mcp-hfspace 是一个 MCP 服务器,它连接了 Claude Desktop 等 MCP 客户端与 Hugging Face Spaces,使得用户可以通过 Claude 等工具调用 Hugging Face Spaces 上托管的各种模型和服务,例如文生图、语音合成、视觉模型等。