返回首页

"MCP 服务器" 标签

8 个结果

标签搜索结果

网页与API

CodeCortex MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及可渲染的提示模板等能力,面向将代码知识以标准化上下文服务暴露给 LLM 客户端的场景

AI与计算

GoodVibes Frontend Engine MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供多种前端代码分析和工具的执行与管理,通过 JSON-RPC 与 Claude/LMM 客户端进行上下文服务与功能调用。

AI与计算

MCPMidjourney

基于 Model Context Protocol (MCP) 的后端服务器,整合 AceDataCloud 的 Midjourney API,提供图像/视频生成、编辑、翻译等工具,并通过 MCP 协议与客户端进行标准化的资源管理、工具注册和提示渲染。

AI与计算

Claude Code Ultimate Guide MCP 服务器

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,负责托管资源、注册并执行工具、定义并渲染提示模板,并通过 MCP 标准与客户端进行交互(以 stdio 传输为主,支持会话管理、能力声明及多种渲染能力)。

开发者工具

auto-fix-workflow

基于 Model Context Protocol (MCP) 的后端服务器,为 MCP 客户端(如 LLM)提供统一的上下文资源、工具执行和提示模板渲染能力,用于自动化的 GitHub 问题管理、代码修复工作流,并支持多种传输协议与会话能力。

AI与计算

PydanticAI API 模板 MCP 服务器

基于 FastAPI 和 PydanticAI 的 API 模板,内置 MCP 服务器,为 LLM 应用提供工具和上下文服务。

开发者工具

Azure Functions 远程 MCP 服务器 (Python)

基于 Azure Functions 构建的远程 MCP 服务器,提供代码片段的存储和检索工具,并通过 SSE 协议与客户端通信。

AI与计算

gateway

CentralMind Gateway是一个AI优先的数据网关,可以为LLM应用自动生成安全的、优化的API,并实现了Model Context Protocol (MCP) 服务器功能,支持LLM客户端进行上下文交互。