基于 Model Context Protocol (MCP) 的后端服务,提供内存管理、工具调用和提示模板等能力,通过 JSON-RPC 与客户端交互,支持本地存储、上下文管理与任务化协作的上下文服务。
EquilateralAgents Open Core 提供了基于 MCP 协议的 AI Agent 后端服务,支持 LLM 客户端调用 AI Agent 能力以实现代码分析、安全审查和部署自动化。
这是一个基于 Model Context Protocol (MCP) 的服务端,允许 AI 代理和 LLM 应用通过标准接口管理和部署服务到 Google Cloud Run。
提供基于 OpenSCAD 的 3D 模型渲染功能,允许 LLM 客户端通过标准化协议生成和可视化 CAD 设计。
一个基于 Model Context Protocol (MCP) 的服务器,通过 Inspire 后端提供图片搜索工具。
将 Snowflake Cortex AI 功能(如搜索、分析、补全)通过 MCP 协议提供给 LLM 客户端。
在 Cloudflare Workers 上部署的轻量级 MCP 服务器,无需认证即可使用。
通过 MCP 协议连接大型语言模型客户端到 Snowflake Cortex Agent,提供智能查询与数据访问能力。
包含基于 Model Context Protocol (MCP) 构建的服务器端示例,展示如何实现上下文服务和工具调用。
基于 C# 和 ASP.NET 实现的 MCP 服务器和客户端示例,演示如何构建 MCP 服务器、注册工具及客户端如何发现和调用这些工具。
连接大型语言模型到 Google Cloud Platform 的 MCP 服务器,允许 LLM 调用 GCP API 查询资源信息。
通过 Model Context Protocol (MCP) 向大型语言模型客户端提供伊朗 Nobitex 交易所的加密货币市场数据和统计信息。
通过MCP协议为LLM提供访问Contentstack Knowledge Vault及模拟数据的功能工具。
为 LLM 客户端提供通过 Liquidium 与 PostHog 集成的能力,支持管理项目、创建注解和查看分析洞察。
基于Cloudflare Vectorize和AI,为LLM提供Cloudflare文档的语义搜索工具。
提供 Mercado Pago 文档搜索工具,使大语言模型客户端能够查询相关信息的 MCP 服务器。
基于 Cloudflare Workers 实现,为 LLM 客户端提供 Google API 访问能力。
Rails 库,用于 REST API 文档生成、运行时验证,并将其接口暴露为 MCP 工具供 LLM 客户端调用。
基于 Azure Functions 构建 Model Context Protocol (MCP) 服务器,提供工具能力给 LLM 客户端。
一个连接大语言模型到 Todoist 的 MCP 服务器,提供任务管理工具。
通过 Model Context Protocol (MCP) 连接大型语言模型 (LLM) 到 Apache NiFi,提供流管理和操作工具。
一个基于 MCP 协议的 CoinGecko 服务器,提供加密货币数据查询工具,供 LLM 客户端使用。
一个基于 MCP 协议的服务器,通过 OpenRouter API 为 LLM 提供网页搜索工具。
该项目是一个 MCP 服务器,用于查询 World Mini App 文档,并提供文档全文资源和文档检索工具,方便 LLM 应用集成 World Mini App 相关知识。
Anki MCP Server 是一个连接 Anki 知识卡片软件的 MCP 服务器,允许 LLM 客户端通过工具操作和管理 Anki 卡片。
此MCP服务器为LLM提供访问DefiLlama API的接口,支持查询DeFi协议、链和代币的TVL、价格以及稳定币数据。
Daytona Python Interpreter 是一个MCP服务器,它利用Daytona沙箱环境提供Python代码和shell命令的执行能力,为LLM应用扩展功能。
Kagi MCP 服务器通过 Model Context Protocol 协议为 LLM 客户端提供网页搜索工具,使其能够检索最新的网络信息。