返回首页

"API 集成" 标签

40 个结果

标签搜索结果

网页与API

Trello MCP Server

基于 Model Context Protocol 的后端服务器,暴露 Trello 的资源与操作给 MCP 客户端,支持资源读取、工具执行等标准 MCP 功能,以供 LLM 场景的上下文服务与外部功能调用之用。

AI与计算

Scout MCP 服务器端

基于 Model Context Protocol 的后端服务,提供资源管理、工具注册与执行、Prompts 渲染等 MCP 功能,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输协议,作为 Scout 数据代理平台中面向 LLM 的上下文与功能服务端实现。

网页与API

x-autonomous-mcp

基于 Model Context Protocol (MCP) 的服务器实现,提供资源、工具和 Prompt 的托管与渲染能力,能够通过 JSON-RPC 与多种传输方式通信,向 LLM 客户端提供上下文信息、数据访问、外部功能执行与工作流协作等服务。

AI与计算

UIMap MCP 服务器实现

一个基于 Model Context Protocol(MCP)的后端服务器实现,为大型语言模型(LLM)客户端提供统一的上下文信息与功能,包括工具的注册与执行、资源访问和提示模板渲染,支持通过 JSON-RPC 与客户端通信,且可通过本地或网络传输(如 Stdio)进行集成。

AI与计算

UniFi MCP 服务端(Go 实现)

基于 Model Context Protocol (MCP) 的后端服务器,将 UniFi Network 的运维操作暴露为标准化的工具集成,能通过 JSON-RPC 与 LLM/代理进行交互,支持标准输出(stdio)和 HTTP 传输,提供会话管理、能力声明与多样传输协议的 MCP 服务器实现。

AI与计算

LightCMS MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、提示模板等 MCP 服务能力,并通过JSON-RPC支持stdio与HTTP流式传输,与AI客户端进行资源访问、功能调用与对话模板渲染。

网页与API

Bright Data Web MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源、工具与提示模板的管理与执行能力,并以 JSON-RPC 形式与客户端通信,支持本地/服务器化运行以及 STDIO 传输等多种接入方式。

网页与API

Zulip MCP 服务器

基于 Model Context Protocol (MCP) 的 Zulip 后端服务器,为大语言模型客户端提供统一的上下文信息、工具调用和格式化的对话历史,支持通过 JSON-RPC 与客户端通信,能够托管Zulip资源、暴露工具接口,并可灵活切换传输协议(如 STDIO、SSE)。

网页与API

Phrase MCP Server

基于模型上下文协议(MCP)的后端服务器,向语言模型客户端以标准化的 JSON-RPC 形式暴露 Phrase Strings 与 TMS 的资源、工具和提示模板,支持多产品运行、会话管理和多传输协议。

网页与API

Supadata MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Supadata API 的工具化访问(转录、网页抓取、地图发现和网站爬虫),通过 JSON-RPC 与 LLM 客户端进行资源管理、工具调用与提示模板渲染。支持多种传输方式(STDIO、Web HTTP),为 LLM 应用提供安全、可扩展的上下文服务框架。

网页与API

Recharge Storefront API MCP Server

基于 Model Context Protocol 的后端服务器,实现对 Recharge Storefront API 的资源访问、工具注册/执行以及 Prompts 渲染,面向与 LLM 客户端的标准化上下文服务能力。

AI与计算

MCPS 模型上下文协议服务器合集

基于 Model Context Protocol (MCP) 的后端服务器集合,提供资源、工具、提示模板等能力,供大语言模型(LLM)通过 JSON-RPC 方式调用和使用,用于资源管理、工具执行、提示渲染等场景。

网页与API

Medical MCP 服务器集合(生物医药 API 集成与统一工具端点)

基于 Model Context Protocol (MCP) 的后端服务器实现,聚合多家生物医药数据库的工具与资源,通过 JSON-RPC 与 LLM 客户端通信,提供资源托管、工具注册与执行、提示模板渲染等能力,并支持统一端点与各个 API 的专用端点,面向将来将上下文信息与功能模块化提供给大语言模型进行后端上下文服务。该仓库实现了一个以 FastMCP 为核心、覆盖 Reactome、KEGG、UniProt、Omim、GWAS、PubMed、OpenFDA、MyVariant、BioThings、NCI 等多家 API 的 MCP 服务器集合。

AI与计算

Claude Home Assistant MCP 服务器

基于 Model Context Protocol (MCP) 的 Home Assistant 后端实现,提供 13 种 MCP API 工具用于查询与操作 Home Assistant 资源、执行服务、以及渲染模板,支持标准化的 JSON-RPC 通信,并通过标准输出/输入(STDIO)等传输方式与 MCP 客户端协同工作。

开发者工具

Hatch MCP 服务器端

基于 Hatch CLI 的 MCP(模型上下文协议)后端实现,提供资源与数据访问、工具注册与执行、以及 Prompts 渲染等能力。服务器通过 JSON-RPC 与 AI 客户端通信,注册多种工具并暴露给客户端,支持通过标准输入/输出(stdio)等传输方式进行交互,适合作为 LLM 助手的上下文与功能服务端。该实现包含完整的服务器端逻辑、工具注册、认证、以及与 Hatch API 的交互。

生产力应用

Google Workspace MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供对 Google Workspace 服务的资源、工具和提示模板等上下文服务,并通过 MCP JSON-RPC 与客户端通信,支持资源管理、工具注册与调用、以及 prompts 渲染等功能,适用于向 LLM 客户端提供安全、可扩展的上下文服务。

网页与API

Lightning Wallet MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化方式提供资源、工具和提示模板等上下文服务,并集成 Lightning Network 的支付与账户管理能力,支持 Operator/Agent 模式的 API 调用与管理。

AI与计算

Reactive Resume MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对 Reactive Resume 的资源、工具与提示模板的标准化访问,支持通过 JSON-RPC 与 LLM 客户端交互,完成简历管理、编辑及导出等能力的远程调用。

AI与计算

mcp-for-mcv

基于 FastMCP 的 MCP 服务器实现,为 MyCourseVille 提供上下文资源、工具执行和提示模板的后端服务,面向与 LLM 客户端的标准化上下文服务。

AI与计算

Altmetric MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端暴露工具(Tools)与外部数据源访问能力,通过 JSON-RPC 风格的请求/响应进行交互,并支持 STDIO 传输以便与本地或嵌入式 LLM 集成。

商业系统

inFlow Inventory MCP Server

基于 Model Context Protocol 的后端服务器,将 inFlow Inventory API 暴露为统一的上下文服务,支持资源读取、工具执行与上下文模板渲染,供大语言模型客户端通过 MCP 进行交互和集成。

AI与计算

Readur MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,将 Readur 的文档管理与 OCR API 以工具形式暴露给 AI 助手,通过 JSON-RPC 提供资源读取、工具调用和提示渲染等 MCP 功能。

AI与计算

ez-xbow-platform-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端提供资源管理、工具执行和提示模板等上下文服务,支持多传输协议、会话管理与本地历史记录,为 AI 驱动的安全挑战赛场景提供后端支撑。

商业系统

Fortnox MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端以标准化方式暴露 Fortnox 的资源、工具和提示模板,支持本地和远程授权模式,以及多种传输方式(Stdio、SSE、HTTP),用于 Fortnox 的会话管理、能力声明与外部功能调用。

网页与API

Multilead Open API MCP 服务器

基于 FastMCP 的 MCP 服务器实现,提供对 Multilead Open API 的资源、工具、提示模板的标准化访问,支持 STDIO/HTTP 等传输模式,具备认证、错误处理、速率限制以及可扩展的插件化工具集与提示模板。

AI与计算

Jules MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与提示模板的托管、注册与渲染能力,并通过 MCP 协议与客户端进行 JSON-RPC 交互,支持多种传输方式与会话管理。

AI与计算

FreeScout MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,面向 FreeScout 工单管理、分析与自动化工作流。通过 JSON-RPC 与客户端交互,提供资源、工具和提示模板的托管、执行与渲染能力,支持与 Git、PR 流程集成的端到端场景。

网页与API

MCP Toggl Server

基于 MCP(Model Context Protocol)的 Toggl Track MCP 服务器,向大型语言模型客户端提供时间跟踪、报表与数据 hydration 等上下文服务,借助工具接口暴露 Toggl 功能,并通过 JSON-RPC 形式进行安全、可扩展的交互与会话管理。

网页与API

MCP Perf Suite

基于 Model Context Protocol (MCP) 的后端服务器集合,提供以 JSON-RPC 方式向 LLM 客户端暴露的资源管理、工具执行与提示渲染等能力,用以构建端到端的性能测试、分析与报告管线。仓库中包含多路 MCP 服务器实现(如 JMeter、BlazeMeter、Datadog、Perf Analysis、Confluence、Microsoft Graph 等),实现资源、工具、提示的注册与执行,以及 JMeter JMX 生成、数据汇总、报表输出等功能,支持多种传输协议(如 stdio、WebSocket、SSE),具备会话管理、能力声明与跨服务器协作能力,旨在为 LLM 驱动的性能测试流水线提供稳定的后端上下文与接口服务。

网页与API

Qveris MCP Server SDK

基于 Model Context Protocol 的后端服务器实现,提供工具发现、信息获取与执行能力,通过 JSON-RPC 与客户端交互,支持通过标准化接口向 LLM 客户端提供上下文信息和外部工具执行能力。

网页与API

Keywords Everywhere MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,提供 Keywords Everywhere API 的资源、工具以及提示模板,供大语言模型客户端通过 JSON‑RPC 调用获取关键字数据、域名分析、流量、反向链接等信息。该实现包含可运行的服务端代码、MCP 传输支持和工具注册,可自托管或使用托管端点。

开发者工具

Quay MCP 服务器

MCP 服务器,用于通过 LLM 访问和管理 Quay 容器镜像仓库。

商业系统

JumpServer MCP Server

将JumpServer API封装为MCP工具, enabling AI/LLM clients to interact with JumpServer功能。

网页与API

HTTP + SSE MCP 服务器 (OAuth)

基于MCP协议,实现HTTP/SSE传输协议并集成OAuth认证的MCP服务器参考实现。

AI与计算

Contentstack MCP 工具集

通过MCP协议为LLM提供访问Contentstack Knowledge Vault及模拟数据的功能工具。

开发者工具

Mercado Pago MCP 服务器

提供 Mercado Pago 文档搜索工具,使大语言模型客户端能够查询相关信息的 MCP 服务器。

开发者工具

OpenAPI to MCP Server

一键将 OpenAPI 规范转换为 MCP 服务器,无缝集成 Claude Desktop,轻松为 Claude 添加 API 能力。

开发者工具

mcp rest api

dkmaker_mcp-rest-api 是一个基于 TypeScript 开发的 MCP 服务器,提供 REST API 测试工具,允许用户通过 MCP 客户端(如 Cline)调用和调试 RESTful 接口。

桌面与硬件

ClaudeMCPServer

Claude MCP Server Collection 仓库提供了一系列MCP服务器,旨在增强 Claude 桌面应用的功能,包括屏幕截图、计算机控制、数据分析和API集成等能力。

网页与API

openapi mcp server

将 OpenAPI 规范转换为 MCP 工具,使 LLM 客户端能够通过自然语言调用和使用任何符合 OpenAPI 3.1 规范的 API。