基于 Model Context Protocol (MCP) 的后端服务器实现,能够托管资源、注册并执行工具、定义并渲染 Prompt 模板;通过 JSON-RPC 提供跨语言/跨进程的上下文服务,并支持多传输协议、会话管理与能力声明,适配 LLM 客户端的上下文服务需求。
Matomo MCP Server作为AI Agent和Matomo分析平台的桥梁,将Matomo Reporting API功能以MCP工具形式提供,便于LLM客户端访问Matomo数据。
此项目演示了如何使用 Genkit 和 MCP 协议,通过 Google Maps API 为 LLM 提供地理位置信息查询等工具。
此仓库旨在将任何OpenAPI规范转换为可用的MCP服务器,方便LLM客户端通过MCP协议访问和利用OpenAPI定义的API功能。
基于Cloudflare Workers构建的远程MCP服务器,提供资源、工具和Prompt模板管理,并通过OAuth进行安全认证。
基于Spring AI框架实现的MCP服务器示例,提供元素周期表查询、文件系统访问和地图路线规划等工具服务。
PlanetScale CLI 内置的 MCP 服务器,为 AI 工具提供数据库上下文访问能力。
为 Sapling SCM 提供 Model Context Protocol (MCP) 服务器,允许 LLM 客户端通过 MCP 协议与 Sapling SCM 进行交互,执行版本控制操作。
提供Model Context Protocol (MCP) 服务器的参考实现和一致性测试套件,支持STDIO和HTTP传输协议。
为AI助手提供访问和管理KubeBlocks Cloud资源的标准MCP接口,实现云资源自动化管理和数据分析。
这是一个使用 WebAssembly 运行 MCP 服务器的运行时,支持任何语言编写的 WASM MCP 服务,并提供跨平台、沙箱化和易于使用的 MCP 服务。
基于AWS Lambda的轻量级MCP服务器,通过Serverless Framework快速部署,提供工具注册和执行能力,简化LLM应用上下文管理。
基于Cloudflare Workers和Model Context Protocol的演示项目,提供Stellar区块链的智能合约交互能力,作为LLM应用的上下文服务器。
基于Cloudflare Workers构建的远程MCP服务器示例,演示了如何使用OAuth进行身份验证并提供工具功能。
基于Fastify框架构建的Telegram机器人,通过集成MCP服务扩展LLM能力,实现智能对话和工具调用。
基于MCP协议实现的Kubernetes服务器,允许LLM客户端通过工具安全地管理和操作Kubernetes集群。
基于Cloudflare Workers实现的远程MCP服务器,提供资源管理、工具注册和Prompt模板渲染等MCP核心功能,并支持OAuth登录。
Kubectl MCP Server 是一个基于 Model Context Protocol 的 Kubernetes 上下文服务器,允许 AI 助手通过自然语言安全地操作和监控 Kubernetes 集群。
Podman Desktop Agent 扩展在 Podman Desktop 中集成并管理 MCP 服务器,为 LLM 应用提供容器环境的上下文服务。
一键将 OpenAPI 规范转换为 MCP 服务器,无缝集成 Claude Desktop,轻松为 Claude 添加 API 能力。
CentralMind Gateway 是一款轻量级 API 网关,能够将数据库快速转换为 AI 友好的 MCP 和 RESTful API 服务。
SillyTavern MCP Server插件,为LLM客户端提供资源、工具和Prompt模板管理功能。
Harvester MCP Server为AI助手提供Harvester HCI集群的上下文信息和操作能力。
mcp-server-unitycatalog 是一个 MCP 服务器,它将 Unity Catalog Functions 作为工具提供给 LLM 客户端,方便 LLM 调用 Unity Catalog 中的函数。
kotlin-sdk仓库是一个基于 Model Context Protocol (MCP) 的 Kotlin SDK,它提供了构建MCP客户端和服务器端应用的能力,支持资源、工具和Prompt模板的管理,以及多种传输协议。
mcp-workers-ai 是一个为 Cloudflare Workers 环境设计的 MCP 服务器 SDK,专注于为 LLM 提供工具调用能力。
本仓库是Cloudflare Workers上的MCP服务器概念验证实现,允许Claude Desktop等MCP客户端通过Cloudflare Workers调用云服务功能,例如发送邮件、网页截图等。
Azure DevOps MCP服务器为AI助手提供标准接口,使其能够安全访问和操作Azure DevOps的项目、工作项、代码仓库等资源。
Ollama MCP Server是一个桥接Ollama和MCP协议的工具,允许MCP客户端通过标准化的方式调用本地Ollama LLM模型,进行模型管理、运行和OpenAI兼容的聊天补全。
Waldur MCP Server是一个为Claude Desktop设计的MCP服务器,它连接到Waldur平台API,为LLM应用提供访问Waldur数据和执行操作的能力,例如查询数据库、列出客户、项目、资源以及发送用户邀请等。
Image Generation MCP Server是一个基于Model Context Protocol的后端应用,允许LLM客户端通过调用工具生成图像,并支持配置图像参数和保存路径。