基于 Model Context Protocol 的独立版 MCP 服务器,提供对威胁情报资源、工具和提示模板的标准化访问,允许本地开发和云端部署的 LLM 客户端通过 JSON-RPC/SSE 等传输方式获取上下文信息与外部功能。
基于 Model Context Protocol 的 MCP 服务器实现,用于为大模型/LLM 客户端提供 Prometheus 数据访问、工具执行以及提示模板渲染等能力,支持多传输通道(stdio、SSE、HTTP)、多租户认证与可观测性指标。
在 Visual Studio 中实现基于 Model Context Protocol 的后端服务器,提供资源、工具执行和提示模板等核心能力,供 Copilot CLI 通过 /ide 与 VS 集成并获得上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供 Amazon Nova Reel 1.1 视频生成服务的上下文资源与工具接口,支持 STDIO、SSE、HTTP 三种传输方式,具备任务调度、状态查询、提示指南以及 AWS Bedrock 视频生成能力。该实现包含服务器端处理、工具定义与提示模板渲染等核心功能,符合 MCP 服务器的职责与通信模式。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册/执行、资源接口、日志通知和 SSE 传输等能力,供大语言模型客户端以标准化上下文服务进行上下文获取、工具执行和提示模板渲染等任务。
基于 AI-ATLAS 的后端服务器实现,通过生成的 MCP 工具和 OpenAPI 规范,向大语言模型客户端提供资源、工具和提示模板等上下文服务,支持基于 SSE 的传输与 JSON-RPC 风格的协作能力。
基于 Model Context Protocol 的 MCP 服务器实现,为 1C:EDT 的 AI 助手提供上下文和功能服务。服务器负责托管资源、注册并执行工具、定义并渲染提示模板,采用 JSON-RPC 与客户端通信,支持流式传输(SSE/HTTP)以实现实时交互,并提供会话管理与多种传输协议的后端上下文服务框架。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源/工具/提示的管理及标准化的 JSON-RPC 通信,并通过 SSE/WebSocket 等传输方式向 LLM 客户端提供上下文与能力服务。该仓库实现了可运行的 MCP 服务器端代码,包含 Durable Object、Hono 服务集成、SSE 与 WebSocket 传输等核心组件,以及用于测试的示例服务端实现。
基于 Model Context Protocol 的 MCP 服务器实现,为 Ditto Assistant 提供本地上下文后端,整合 Google Workspace 的资源与工具,并通过 SSE JSON-RPC 与 Ditto 客户端通讯,支持工具注册、会话管理、Bearer 认证以及本地 ngrok 隧道等能力。
基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,通过 SSE+JSON-RPC 提供资源、工具和提示的托管、注册、执行与渲染,包含会话管理、权限控制、Web UI、数据库与缓存集成,支持多种传输协议,面向 AI 代理与 IDE 集成的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具执行与提示模板渲染等功能,统一以 JSON-RPC 形式向 LLM 客户端暴露上下文信息与能力,支持多传输通道(HTTP/SSE)并具备会话管理、能力声明与安全性校验。
一个基于 Model Context Protocol (MCP) 的服务器实现与示例集合,包含使用 FastMCP 的 Python 版本服务器、SSE 与 Streamable HTTP 传输模式,以及用于注册工具、提示、资源等组件的示例脚本,支持通过 JSON-RPC 与客户端进行资源访问、工具调用、提示获取等上下文服务的交互,适合对接 LLM 客户端进行 MCP 服务端能力测试、扩展与演示。
基于 Model Context Protocol(MCP)的后端服务器实现,提供对 Binary Ninja 数据库的 SQL 查询、自然语言查询与外部工具调用能力,并通过 MCP/SSE 与 LLM 客户端进行标准化通信,作为上下文与功能服务入口。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供 MCP 的核心能力:注册并执行工具(Tools)、托管资源与数据,以及通过 JSON-RPC 风格的交互向 LLM 客户端提供上下文与功能,支持多传输协议(stdio 与 HTTP/SSE)以便与不同的 AI 客户端对接。项目中包含可运行的 MCP 服务器代码和 HTTP/SSE 传输实现,适合作为对接大模型代理的后端服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具、Prompt 模板等上下文能力的托管与管理,并通过 JSON-RPC 风格的 MCP 协议对接 LLM 客户端。实现了对 MCP 请求/响应的处理、传输协议支持(SSE/HTTP proxy、STDIO 启动模式等)、以及与网关、权限、鉴权和模块化插件体系的协同运行,定位于为 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册、资源管理、提示模板渲染等能力,并通过 SSE 传输实现与 MCP 客户端的通信,用于在 LLM 客户端侧获取上下文、执行工具与获取 Prompts。
基于.NET Aspire构建的eShopLite MCP服务器,提供商品搜索、在线研究和天气查询等工具,并通过SSE协议与客户端通信。
基于Model Context Protocol (MCP) 和 Server-Sent Events (SSE) 实现的 HackerNews 工具服务器,提供 HackerNews Top Stories 查询功能。
基于Spring MVC和SSE实现的MCP服务器,支持通过JSON-RPC协议与LLM客户端进行上下文信息和功能交互。
一个演示性质的MCP服务器,通过SSE协议提供BMI计算和加法计算工具,可与Github Copilot和Copilot Studio集成。
基于FastMCP的serverless多租户扩展实现,专为Vercel设计,利用Redis持久化会话状态,并支持SSE实时通信。
Emmett MCP 是一个用于构建 Model Context Protocol (MCP) 服务器的 Emmett 框架扩展,支持 SSE 传输协议,为 LLM 客户端提供上下文信息和工具能力。
PlaywrightをMCPプロトコルで提供するサーバーです。LLMクライアントからPlaywrightのブラウザ自動化機能を安全かつ標準的に利用できます。
基于 Azure 函数和 API 管理构建的远程 MCP 服务器,提供工具注册、执行和安全访问控制能力。
基于Spring Cloud Gateway构建的MCP服务器示例,提供资源管理、工具注册和Prompt模板定义等核心功能,用于连接LLM客户端与后端服务。
基于AWS Lambda的MCP服务器实现,通过Server-Sent Events (SSE) 提供实时的上下文服务,支持工具、资源和Prompt管理。
演示如何使用 Entra ID 认证和 HTTP+SSE 传输协议实现 MCP 服务器,提供调用 Microsoft Graph 获取用户信息的工具。
基于 TypeScript 和 Azure Developer CLI 的 MCP 服务器示例,提供资源、工具和 Prompt 管理功能,并通过 SSE 协议与客户端通信。
基于Cloudflare Workers构建的远程MCP服务器示例,演示了如何使用OAuth进行身份验证并提供工具功能。
mcpport是一个轻量级的MCP网关和注册中心,旨在为AI应用提供标准化的连接能力,充当LLM客户端和后端MCP服务器之间的桥梁。
轻量级 Javascript MCP 服务器及客户端 SDK,专注于 SSE 传输,简化 AI Agent 上下文服务搭建。
一个C# .NET教程项目,演示了如何使用SSE和STDIO实现一个基础的MCP服务器,用于产品分类任务。
基于Springboot框架搭建的MCP服务器模板项目,支持STDIO和SSE模式,方便开发者快速构建和测试MCP后端服务。
基于Cloudflare Workers实现的演示版MCP服务器,包含资源、工具管理和OAuth认证功能。
基于Cloudflare Workers和Stytch的TODO应用MCP服务器,提供资源管理和工具调用能力,扩展传统应用以支持AI Agent。
基于Model Context Protocol和Server-Sent Events的MQTT操作服务器,为LLM应用提供MQTT消息代理的桥梁。
Atoma SDK 仓库不仅提供Typescript SDK,还能作为MCP服务器运行,为AI应用提供模型访问和工具调用能力。
Authed MCP服务器集成方案,为AI Agent提供安全认证的Model Context Protocol服务。
该仓库是基于Server-Sent Events (SSE) 的MCP服务器示例实现,旨在Netlify Edge Functions上部署,提供资源、工具和Prompt管理等核心MCP功能。
WASImancer是一个基于Node.js开发的MCP服务器,创新性地使用WebAssembly插件扩展工具功能,提供高性能和安全的上下文服务。
Offeryn是一个Rust实现的Model Context Protocol (MCP) 服务器,专注于通过工具扩展大型语言模型的能力,支持JSON-RPC over Stdio和SSE传输协议。
acehoss_mcp-gateway 是一个灵活的网关服务器,用于将基于 STDIO 的 MCP 服务器桥接到 HTTP+SSE 和 REST API,从而实现对 MCP 服务器的远程访问和管理。
HackerNews API MCP服务器是一个简单的后端应用,它通过工具向LLM客户端提供Hacker News的数据访问能力,并包含一个Prompt模板用于故事信息查询。
基于 Clojure 实现的 MCP 服务器,通过 SSE 协议暴露 Clojure REPL 功能,为 LLM 客户端提供代码执行和上下文服务。