网页与API

1422 个服务器

网页与API工具用于构建和交互网络应用。这些MCP服务器为AI提供了调用Web服务、获取网页内容和集成在线服务的能力。

Co-Op MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器实现,提供资源管理、工具执行与上下文提示渲染等能力,支持 LLM 客户端以标准化的 JSON-RPC/HTTP 方式进行通信与协作。

LogicApps MCP Server

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。

tba-mcp-server

基于 Model Context Protocol 的 MCP 服务器,提供对 The Blue Alliance (TBA) 数据的资源访问与工具调用能力,供 LLM 客户端通过标准化的 JSON-RPC 接口进行交互与上下文注入。

MCPProxy-Go 服务端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源与工具的托管与管理、提示模板渲染、以及对外部 MCP 客户端的工具注册与执行能力;同时内置认证、秘密管理、Docker 隔离等安全与扩展特性,支持多传输协议(HTTP/SSE、stdio、WebSocket 等)并通过 JSON-RPC 与客户端通信,形成面向 LLM 场景的上下文服务框架。

MCP 控制端服务器实现(基于 FastMCP 的 OpenAPI 映射)

基于 Model Context Protocol (MCP) 的服务器实现,使用 OpenAPI/FastMCP 将 mcpproxy 的控制接口暴露为 MCP 工具,支持工具注册、路由过滤、以及与 MCP 客户端的 JSON-RPC 通信,便于对 MCPProxy 的安全、可扩展后端服务提供上下文和控制能力。

TrendRadar 服务器端 MCP

基于 Model Context Protocol (MCP) 的应用后端实现,TrendRadar 提供新闻聚合、资源与工具的访问,以及面向 LLM 的 AI 分析能力,采用 FastMCP 2.0 协议实现 JSON-RPC 通信,支持 STDIO 与 HTTP 两种传输模式,具备数据爬取、查询、分析和通知等完整功能。

Scrapfly MCP Server

基于 Model Context Protocol(MCP)的后端服务器,实现对资源、工具和提示模板的注册、管理与执行,提供给大型语言模型(LLM)客户端实时、可扩展的网页上下文服务与数据访问能力。

MCP 服务器示例与工具/资源整合演示(Model Context Protocol 服务端)

基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。

ControlAPI-MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,将 OpenAPI/REST API 动态暴露为 MCP 工具,支持多服务器切换、变量替换、请求执行与状态历史等能力,面向 LLM 客户端提供统一的上下文化 API 访问入口。