MCP,一网打尽。

发现、探索并连接最适合你需求的MCP服务器

最近更新

Officetracker MCP 服务端

基于 Model Context Protocol(MCP)的后端实现,提供资源、工具和提示模板的上下文服务,供 LLP/LLM 客户端通过 JSON-RPC 方式访问办公室出勤数据,并在 HTTP 端点 /mcp/v1/ 提供 MCP 服务能力与工具执行能力。

Strands Agent SOP MCP 服务器

一个基于 Model Context Protocol (MCP) 的后端服务,加载内置与外部 SOP,将它们作为可调用的提示注册,通过 FastMCP 提供 JSON-RPC 服务供 MCP 客户端访问,用于向大型语言模型提供结构化上下文和功能性提示。

cc-switch MCP 服务器端实现

基于 Model Context Protocol(MCP)的本地后端,作为后台服务端组件,统一管理资源、工具与提示词等上下文相关对象,支持多应用场景(Claude、Codex、Gemini)在本地进行 MCP 服务器的创建、导入、配置与同步,并通过数据库作为单一数据源实现 SSOT,帮助本地 LLM 客户端获得一致的上下文服务能力与快速切换能力。

NVIDIA Blog MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供对 NVIDIA 官方博客内容的上下文服务、向 LLM 客户端暴露检索、工具调用与提示模板渲染等能力,支持多种传输方式并实现 JSON-RPC 风格的交互。

Co-Op MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器实现,提供资源管理、工具执行与上下文提示渲染等能力,支持 LLM 客户端以标准化的 JSON-RPC/HTTP 方式进行通信与协作。

LogicApps MCP Server

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。

SSH-SFTP MCP 服务器

基于模型上下文协议(MCP)的后端实现,提供对远程服务器的 SSH 命令执行、SFTP 文件操作与会话管理等能力,供大型语言模型客户端通过 JSON-RPC 调用获取上下文、执行工具并管理会话。

Agentic Reliability Framework - OSS MCP 服务器

基于 Model Context Protocol (MCP) 的 OSS 版后端实现,提供对接 LLM 客户端的分析与边界执行能力。通过处理 MCP 请求/响应,向客户端提供工具分析、资源/记忆图(RAG)与 HealingIntent 的企业对接入口,采用 Advisory 模式以确保安全可控的上下文服务。

Degasser Design MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 degasser(脱气塔)设计的资源管理、工具执行(Tier 1/2/3)、以及基于 Prompts 的交互模板渲染等功能,并通过 JSON-RPC 与 LLM 客户端通信,支持后台作业、成本评估和分层仿真等能力。