返回首页

"API 服务" 标签

18 个结果

标签搜索结果

AI与计算

Pyrite MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供标准化的资源管理、工具执行与提示渲染能力,通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、分层权限以及多传输协议的上下文服务框架。

数据库与文件

Org-Node MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,将 Org-mode 知识库作为资源进行托管与管理,提供数据访问、工具执行、以及基于 Org-mode 的内容处理、节点预览、搜索和链接遍历等能力,支持通过 JSON-RPC 风格的 MCP 客户端进行交互,具备会话管理、能力声明和多传输协议支持的能力。

网页与API

Google Sheets MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供对 Google Sheets 的资源读取、工具执行与数据操作能力,通过 JSON-RPC 与 MCP 客户端通信,支持 STDIO 传输。

网页与API

tweetsave-mcp

基于 Model Context Protocol(MCP)的后端服务器实现,提供从 Twitter/X 获取推文、获取线程、将推文转换为博客等能力的工具集合,并通过标准 MCP 传输(stdio、SSE、HTTP)对外暴露,供大模型客户端以统一方式获取上下文信息与能力。

网页与API

STM Montevideo MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,提供 Montevideo 公交系统 STM 的资源管理、工具执行和提示模板渲染等上下文服务,并通过 MCP JSON-RPC 与客户端通信,同时提供基于 REST 的开放接口与远程 MCP 支持,便于将实时数据、路线规划、地点定位等功能整合到大语言模型应用中。

网页与API

MCP Registry Mirror & API Server

基于 MCP Registry Protocol 的 TypeScript 实现,提供注册表镜像、API 服务和验证工具,用于向客户端提供 MCP 服务器元数据、版本信息及注册中心功能。

网页与API

Flux MCP 伺服端实现

基于 Flux 的 MCP(Model Context Protocol)服务器实现,提供标准化的资源管理、工具执行以及基于模板的提示渲染能力,以 JSON-RPC 方式与客户端交互,支持多传输(如 Stdio、HTTP/SSE),可为 LLM 客户端提供上下文和外部功能调用能力。

网页与API

Kodus MCP Manager

基于 Model Context Protocol(MCP)的后端服务实现,提供资源与工具的注册与管理、集成管理、OAuth 授权流以及面向 LLM 客户端的上下文与能力服务,支持多提供商体系与可扩展的服务器端特性。

网页与API

Hadoop 作业历史 MCP 服务器

基于 Hadoop JobHistory Server REST API 的 MCP 服务器实现,向大语言模型(LLM)客户端提供作业历史查询、任务与日志获取等工具,支持本地 STDIO 和 HTTP 传输模式,便于将 Hadoop 作业数据以标准化的 MCP 形式暴露给 AI 助手。

AI与计算

cms-symfony-sulu

基于 Symfony + Sulu CMS 的 MCP(Model Context Protocol)服务器实现,能向 LLM 客户端提供资源、工具、以及可渲染的 Prompt,支持通过 JSON-RPC 等协议进行交互并实现会话与权限等后端能力。该仓库不仅包含服务端核心组件,还提供了 MCP 工具、测试用例及集成示例,表明其为完整的 MCP 服务器实现,而非仅仅是客户端示例。

网页与API

Rancher MCP Server

基于 Model Context Protocol (MCP) 的后端服务端实现,面向大模型客户端提供 Rancher 多集群管理的资源访问、工具执行与提示模板渲染,通过 JSON-RPC 与客户端通信,支持 stdio、HTTP/SSE 等传输模式,提供可扩展的上下文和能力服务。

网页与API

MCP 数据平台服务器

基于 Model Context Protocol (MCP) 的数据平台后端服务器,提供资源管理、工具注册与执行、提示模板渲染等核心能力,并通过 JSON-RPC 风格的 MCP 协议与客户端通信,支持多种传输方式(stdio、SSE、WebSocket),用于向大型语言模型(LLM)提供上下文、能力与工具入口。

网页与API

gh-actions-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端以标准化方式提供 GitHub Actions 的上下文信息、工具和提示模板,并通过 JSON-RPC 与客户端通信,支持以 Stdio 传输模式运行,便于在 Claude Desktop 等环境中集成使用。

开发者工具

Codesearch MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现。该服务器托管并管理资源、注册并执行工具、定义并渲染 prompts,通过 MCP 协议与客户端进行 JSON-RPC 通信,支持将多代理代码搜索能力整合为一个可扩展的后端服务(当前实现以标准输入传输(stdio)为主,未来可扩展到 SSE/WebSocket 等传输方式)。

AI与计算

Agent Bridge MCP Server Mock & Integration

一个将 LangChain 代理与 MCP 服务器整合的后端平台,包含可运行的 MCP 服务器示例(Mock),用于向大模型客户端提供资源、工具和提示模板等上下文信息,并提供完整的服务端框架以注册、管理 MCP 服务器和工具权限,支持实时通信与安全认证等能力。

网页与API

Langfuse Docs MCP Server

基于模型上下文协议(MCP)的后端服务器,在 Langfuse 文档站点中暴露 MCP 服务,提供工具注册、与客户端的 JSON-RPC 通信,以及为 LLM 客户端提供文档检索与页面获取等能力。

商业系统

仓库订单管理 MCP 服务端示例

基于 FastAPI 和 fastapi-mcp 库实现的仓库订单管理 MCP 服务器示例,通过 MCP 协议提供订单管理能力。

桌面与硬件

gpt computer assistant

GPT Computer Assistant (GCA) 是一个开源框架 acting as an MCP server, enabling vertical AI agents to interact with and control computers via resources and tools.