返回首页

"API代理" 标签

16 个结果

标签搜索结果

网页与API

NCI GDC MCP Server

基于 MCP 的后端服务,向大语言模型客户端提供 NCI GDC 数据资源、工具注册与 API 访问能力,并通过 JSON-RPC 与客户端通信,支持资源管理、工具执行、Prompt 渲染,以及数据分阶段存储(staging)与 Code Mode 等特性。

AI与计算

copilot-sdk-proxy

基于 GitHub Copilot SDK 的 MCP 风格服务器实现,提供对 OpenAI、Claude/Anthropic、Codex 等接口的代理与协同能力,支持多种后端 MCP 服务接入、工具与提示渲染,以及流式通信。通过 MCP 配置管理后端会话与工具,面向 LLM 客户端提供标准化上下文服务。

网页与API

Kuadrant MCP Gateway

基于模型上下文协议(MCP)的后端网关与服务器聚合实现,能够将多个后端MCP服务器 behind 一个统一入口进行托管、注册工具并通过JSON-RPC进行交互与通知。

开发者工具

MCP TypeScript 服务模板

这是一个基于TypeScript和Express框架构建的远程Model Context Protocol (MCP) 服务器模板,用于快速开发和部署面向大型语言模型的上下文服务。

AI与计算

Pica MCP 服务器

Pica MCP服务器通过标准化接口将大型语言模型与100+第三方服务无缝集成,提供工具调用和代码生成能力。

开发者工具

FieldFlow

将OpenAPI描述的REST API端点转换为可筛选字段的工具,并通过MCP协议暴露给大型语言模型(LLM)客户端。

开发者工具

OpenAPI转MCP协议服务器代理

自动化将OpenAPI规范转换为MCP协议服务器,赋能LLM调用传统RESTful服务。

网页与API

Apify MCP 服务器集合

一个精选的生产级Model Context Protocol (MCP) 服务器集合,为LLM客户端提供多样化的外部能力,包括Web搜索、文档提取、翻译、计算等。

开发者工具

GitHub MCP SSE 服务端

一个基于MCP协议的服务器,通过SSE和Streamable HTTP提供GitHub API的上下文和功能,赋能LLM与GitHub交互。

商业系统

Umbraco MCP服务器

基于MCP协议,连接大型语言模型(LLM)客户端与Umbraco CMS,提供内容管理和数据访问能力。

网页与API

OpenAPI MCP 代理服务器

将 OpenAPI 规范转换为 MCP 服务器,使得 AI 智能体可以通过 MCP 协议无缝访问 REST API。

网页与API

MCP Server Flask 封装

通过 Flask 封装 MCP 客户端,将本地 MCP Server 服务暴露为 HTTP API,方便 Coze/Dify 等平台集成。

网页与API

mcp server metatool

Metatool MCP Server作为一个代理服务器,汇聚Metatool App管理的多个MCP服务器的工具,为MCP客户端提供统一的工具访问入口。

网页与API

Clerk Authentication

基于Cloudflare Worker的MCP服务器,为Claude Desktop提供Clerk身份验证代理,允许其安全访问Clerk保护的API资源。

网页与API

Remote Server

Remote Server是一个可配置的MCP服务器,它从远程配置动态加载工具、资源和Prompt,充当MCP客户端与远程API之间的桥梁。

AI与计算

OpenRouter MCP Server

该项目是一个 MCP 服务器,通过 OpenRouter.ai 统一接口,为 LLM 应用提供对多种 AI 模型的高效访问和管理能力。