这是一个基于TypeScript和Express框架构建的远程Model Context Protocol (MCP) 服务器模板,用于快速开发和部署面向大型语言模型的上下文服务。
基于 Claude AI Agent SDK 构建的个人智能助理,集成文件、Web 搜索、Python 自动化、Microsoft 365、浏览器和数据库等多种功能,支持命令行和 Web UI 交互。
该项目为AI助手提供对OpenShift Backplane CLI核心功能的访问,包括集群信息查询、登录管理、控制台访问及Kubernetes资源操作,通过标准化协议增强AI交互能力。
一个基于Model Context Protocol (MCP) 的服务器,能自动抓取文档网站并将其转换为适用于Claude AI的技能包。
一个基于Model Context Protocol (MCP) 构建的AI应用模板,提供功能强大的AI工具、API集成、数据库和协作能力,可部署到Cloudflare Workers。
连接AI助手至Firebase Realtime Database,通过标准化工具调用实现数据访问。
利用Google Apps Script构建MCP服务器,连接LLM应用与Google Workspace数据和功能。
一个基于Rust的MCP服务器,提供内嵌V8引擎,允许AI调用运行JavaScript代码,并支持持久化状态。
一个MCP服务器,利用Asymptote引擎将几何描述代码渲染成精确的图像,供AI模型使用。
在 Cloudflare Workers 上部署无需认证的 MCP 服务器,提供图书搜索(数据库)和 AI 交互等工具功能。
提供基于Databricks Unity Catalog和Genie的工具,帮助AI代理获取企业数据和执行操作。
通过Spring Boot和Spring AI,将Cloudflare R2对象存储功能暴露为MCP工具供LLM调用。
基于 Model Context Protocol (MCP),提供与 Atla API 交互的标准接口,用于 LLM 性能评估。
一个 MCP 服务器,允许 AI 助手通过书名在 Open Library 中搜索图书信息。
用于从指定目录加载和整理 Memory Bank 文件的 MCP 服务器,优化 AI 模型上下文输入。
封装Google Gemini API的MCP服务器,通过标准化的MCP工具接口,为LLM客户端提供Gemini模型的各项能力。
一个使用 Spring Boot 构建的 MCP 服务器示例,对外提供课程信息查询工具,演示如何通过 MCP 协议向 LLM 应用提供结构化数据访问能力。
Google Scholar MCP Server是一个基于Model Context Protocol的应用后端,允许AI助手通过简单的MCP接口搜索和访问Google Scholar的学术论文。
该项目是一个基于 Model Context Protocol (MCP) 的服务器实现,它利用 Replicate 的 FLUX 模型生成图像,并将图像存储在 Cloudflare R2 云存储中,通过 MCP 协议为客户端提供图像生成工具。
Atoma SDK 仓库不仅提供Typescript SDK,还能作为MCP服务器运行,为AI应用提供模型访问和工具调用能力。
基于 Minimax API 的 MCP 服务器,提供图像生成和文本转语音工具,可与 Windsurf 和 Cursor 等编辑器集成。
一个基于Model Context Protocol的服务器,用于访问eRegulations API数据,为LLM应用提供结构化法规信息查询能力。
该仓库提供了一个基于TypeScript的SDK,用于与StreamStore API交互,并且它同时也是一个可安装的MCP服务器,可以将SDK的方法作为工具暴露给AI应用。
mcp-server-unitycatalog 是一个 MCP 服务器,它将 Unity Catalog Functions 作为工具提供给 LLM 客户端,方便 LLM 调用 Unity Catalog 中的函数。
workers-mcp-demo 是一个基于 Cloudflare Workers 构建的 MCP 服务器演示项目,提供图像生成、网页截图和图片提取等工具,可以与 Claude 和 Cursor 等 MCP 客户端集成,扩展 AI 助手的功能。
为 Claude Desktop 等 AI 工具提供 Kintone 数据访问和操作能力的 MCP 服务器。
Supabase MCP Server 允许AI模型通过标准化的MCP协议管理Supabase项目和组织,提供项目和组织信息的查询、创建和删除等功能。
一个MCP服务器,通过Pollinations.ai API提供图像和文本生成功能,允许AI模型通过MCP协议调用图像和文本生成工具,轻松集成图像和文本生成能力。
基于 Cloudflare Workers 的图像生成 MCP 服务器,提供通过文本提示生成图像的功能。
Hypernym MCP Server通过Hypernym AI API提供语义文本分析和压缩工具,并基于Model Context Protocol与客户端通信。
CrewAI MCP Server是一个基于Python实现的MCP服务器,它利用Claude API提供AI智能体和任务管理能力,支持通过JSON-RPC协议进行工具调用和会话交互。
Deep Reasoning Server (OpenRouter) 是一个基于 Model Context Protocol (MCP) 的服务器,为 MCP 客户端提供深度推理分析工具,支持通过 OpenRouter API 调用大型语言模型进行内容分析和优化。
通过MCP协议,使AI模型能够控制YouTube Music,在Chrome浏览器中搜索和播放音乐。
MCP Solver 是一个MCP服务器,通过集成MiniZinc约束求解器,为LLM提供约束建模和求解能力,支持模型编辑、求解和解信息查询,以及知识库管理。