基于 Cloudflare Workers 的 MCP 服务器,实现 CIViC GraphQL 查询的上下文服务:将查询结果转为可被 LLM 处理的结构化 SQLite 存储、注册并执行工具,以及提供 Prompt 渲染与多种传输模式支持的 MCP 服务端实现。
基于 Model Context Protocol (MCP) 的后端服务器,暴露数据资源、工具调用和提示模板的管理与渲染能力;通过 JSON-RPC 与 LLM 客户端(如 Claude)交互,查询 DataCite GraphQL API、对结果进行分段/阶段化并提供数据访问接口,支持多种传输方式(包括流式 HTTP、SSE 等),用于为 LLM 提供可扩展、安全的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,向 MCP 客户端提供对 Open Targets 平台数据的上下文化访问,包含 GraphQL 查询转发、数据分发和后续的 SQL 分析能力,支持多传输协议(Streamable HTTP、SSE),面向 LLM 的上下文服务框架实现。
基于 Model Context Protocol 的 MCP 服务器实现,提供 Shopify GraphQL 查询工具、资源清单与文档资源管理,并通过标准化的 JSON-RPC 与客户端交互,支持以 Stdio 等传输协议运行的后端上下文服务。
为AI助手提供对Optimizely CMS内容管理、GraphQL查询及智能内容创建的全面访问,通过标准MCP协议与LLM客户端通信。
此项目演示了如何使用 MCP 协议连接 AI Agent 和 Microsoft Fabric 数据仓库,通过 GraphQL API 提供数据访问和工具能力。
基于AWS Amplify Data API的MCP服务器,通过自然语言与Amplify Gen2应用数据交互,支持数据查询和操作。