基于 Model Context Protocol (MCP) 的 WhatsApp 后端服务器实现,使用 Go 语言编写,提供工具注册与执行、会话管理与多传输模式支持,旨在为大模型客户端提供统一的资源访问、外部功能调用和上下文渲染能力,并可与 WhatsApp Bridge 集成使用以实现对话上下文的实时服务。
基于 Model Context Protocol (MCP) 的 HTTP 服务器实现,提供 linWinPwn 的命令目录浏览、按ID执行命令并返回执行结果与日志的能力,旨在为 LLM 客户端提供可访问的上下文与工具执行接口。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于通过 JSON-RPC 与 LLM 客户端协同,管理多设备串口资源、注册并执行工具(Tools)、以及提供动态的提示/模板渲染能力,核心在于为 AI 应用提供统一的上下文和外部功能访问接口。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供通过 MCP 客户端进行 WhatsApp 消息收发、工具执行和对话上下文管理的能力,支持多种传输方式及会话持久化。
基于 Model Context Protocol 的 MCP 服务器实现,作为 Roxlit 向 LLM 客户端暴露 Luau 执行、资源访问与日志等能力的后端服务。通过标准输入输出(stdio)进行 JSON-RPC 通信,能够与 Roxlit Launcher 的 HTTP 服务协同工作,向 AI 客户端提供统一的上下文与工具执行能力。
基于 Model Context Protocol (MCP) 的 Rust 后端服务器实现,与 Linear API 集成,提供资源、工具和提示模板的上下文服务,通过 JSON-RPC 与 LLM 客户端通信(当前实现使用标准输入/输出传输)。
基于 Model Context Protocol(MCP)的后端服务,为大型语言模型客户端提供可读取的资源、可执行的工具、以及可渲染的提示模板等上下文能力,通过 JSON-RPC/MCP 协议实现与客户端的交互。
基于 Buttondown API 的 MCP 风格后端服务,为大语言模型客户端提供资源访问、工具调用和上下文渲染等能力。通过 JSON-RPC 与客户端通信,支持多种传输方式(如标准输入输出、SSE、WebSocket),实现对 Buttondown 邮件、订阅者等数据的安全、可扩展访问。
基于 Model Context Protocol (MCP) 的 Gemini 模型后端实现,提供资源、工具和提示模板的上下文服务,通过 JSON-RPC 与客户端通信,并以 stdio 传输实现 MCP 服务器。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 CoinBase Advanced Trading API 的资源管理、工具注册与执行,以及用于 Claude 等大语言模型的提示模板渲染与自助交易能力。服务器通过 JSON-RPC 与客户端通信,支持 HTTP(/mcp)、标准输入输出(stdio)等传输方式,并内置工具与提示注册、会话管理与安全日志处理。实现不仅包含完整的 MCP 服务端逻辑,还提供大量工具的注册、Prompts、以及用于自动交易技能的集成示例。
基于 Model Context Protocol(MCP)的后端服务,为 LLM 客户端(如 Claude)提供统一的上下文服务,包括资源、工具和提示模板的管理;通过 JSON-RPC 进行通信,支持 SSE/stdio 等传输协议,并具备会话管理与认证机制,适合作为法律场景下的上下文与功能后端。
基于 Model Context Protocol(MCP)的后端服务器实现,托管并管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),通过标准的 JSON-RPC 方式向 LLM 客户端提供上下文信息与功能,并支持组件化扩展与会话分析。<br/>该仓库实现了完整的 MCP 服务端框架及多组件插件,能够在 Node.js 环境中运行并对外提供 MCP 接口。<br/>注:项目使用 stdin/stdout 作为传输通道(Stdio Server Transport),并提供了丰富的组件体系以实现资源、工具、提示模板等能力。
这是一个基于TypeScript和Express框架构建的远程Model Context Protocol (MCP) 服务器模板,用于快速开发和部署面向大型语言模型的上下文服务。
基于.NET Aspire构建的员工管理系统,其MCP服务器组件为AI代理提供标准化接口,以集成和管理员工数据及操作。
Arcade AI 平台是一个用于构建、部署和管理 AI Agent 工具的开发平台,其核心 `arcade-serve` 库提供 MCP 服务器实现,以标准化方式向 LLM 客户端提供上下文信息和功能。
在 Internet Computer (IC) 上构建 Model Context Protocol (MCP) 服务器的开发工具包。
基于 MCP 协议,提供数据库(当前支持PostgreSQL)的注册、查询、修改、Schema/表管理等能力。
MLC Bakery是一个用于管理机器学习模型谱系和上下文的后端服务,通过RESTful API和MCP协议提供数据访问、工具调用和Prompt服务。
一个基于Jakarta EE和Quarkus MCP扩展实现的MCP服务器,提供图书商店相关的工具功能。
连接LLM客户端与PocketBase后端的MCP服务器,提供数据管理、文件操作、日志查看和数据库迁移等工具集。
基于Azure Functions构建的远程MCP服务器,提供代码片段管理和示例工具,支持与LLM客户端进行上下文交互。
基于Model Context Protocol的示例MCP服务器,提供工具注册和调用能力,支持Stdio和SSE传输协议,用于LLM智能体应用。
一个基于MCP协议的ClickHouse服务器,提供ClickHouse数据库的查询、Schema获取和查询解释等工具,方便LLM客户端访问和操作ClickHouse。
MCP2Lambda 是一个 MCP 服务器实现,它充当 MCP 客户端与 AWS Lambda 函数之间的桥梁,使 LLM 能够以工具的形式调用 AWS Lambda 函数,扩展 LLM 的能力以访问后端服务和资源。
Firebase MCP Server为LLM应用提供访问Firebase服务的统一接口,支持Firestore数据库操作、用户身份验证和云存储文件管理等功能。
PocketBase MCP Server 是一个为 PocketBase 数据库提供高级工具的 MCP 服务器,支持集合管理、记录操作、用户管理和数据库操作等功能,方便 LLM 应用安全访问和操作 PocketBase 数据。