基于 Model Context Protocol(MCP)的后端服务集合,提供标准化的资源分发、工具注册与执行、以及可渲染的 Prompt 模板等能力,支持通过 JSON-RPC 与 LLM 客户端交互。仓库包含两个独立的 MCP 服务实现:一个专注于翻译资源与语言管理的核心 MCP 服务(mcp),以及一个面向内容管理的 MCP 服务(mcp-content),并提供多种传输协议支持(如标准输入输出、HTTP、WebSocket/SSE 等),用于为 AI Agent 提供上下文信息和功能能力。该实现包括服务端设施、工具注册、版本检查、以及面向不同传输通道的服务器骨架,能够在真实场景中被客户端集成调用。
基于 Model Context Protocol (MCP) 实现的服务器,旨在连接 AI 助手与 macOS 上的 Ulysses 写作应用,提供丰富的自动化和内容管理工具。
为AI助手提供对Optimizely CMS内容管理、GraphQL查询及智能内容创建的全面访问,通过标准MCP协议与LLM客户端通信。
连接AI助手与Contentful CMS的桥梁,提供丰富的工具集,使AI能够通过自然语言管理和操作Contentful内容。
Confluence MCP服务器是一个基于Model Context Protocol的后端实现,旨在让AI助手能够通过标准接口安全访问和操作Confluence知识库中的内容。
将 WordPress 功能以 MCP 协议暴露,使 LLM 客户端能够安全访问和利用 WordPress 的资源与工具。
Confluence MCP Server是一个为AI Agent设计的应用后端,通过Model Context Protocol (MCP) 提供Confluence知识库的访问和管理能力。
该项目演示了如何构建一个基于MCP协议的Markdown文件处理器服务器,提供读取和写入Markdown文件的工具,可供LLM客户端调用。
vidhupv_x-mcp 是一个 MCP 服务器,它扩展了 Claude 等 LLM 的能力,使用户能够通过自然语言指令直接在 X (Twitter) 平台上创建、管理和发布帖子和线程。
Contentful MCP Server是一个基于Model Context Protocol的应用后端,集成了Contentful内容管理API,为LLM提供内容管理能力,包括内容条目、资产、内容类型和空间的CRUD操作。
此项目是一个MCP服务器,为AI助手提供Confluence Cloud内容管理工具,支持空间、页面、搜索和标签操作。
Roam Research MCP Server为 Claude 等 AI 助手提供标准化的接口,使其能够访问和操作 Roam Research 知识库,实现内容检索、编辑和管理等功能。
基于Model Context Protocol的Twitter MCP服务器,提供推文发布、搜索、用户管理、列表管理等工具,方便LLM应用集成Twitter功能。
Strapi MCP Server是一个基于Model Context Protocol的服务器,它允许AI助手通过标准接口与Strapi CMS交互,实现内容管理和数据访问。
Contentful MCP Server为LLM应用提供Contentful内容管理平台的集成,支持内容条目、素材、内容模型和空间的CRUD操作及发布管理,通过MCP协议标准化接口与LLM客户端交互。
Transistor MCP Server是一个连接Transistor.fm播客平台的MCP服务器,通过工具集提供播客节目、音频分析和内容管理功能,方便LLM客户端集成和调用。