基于 Model Context Protocol (MCP) 的后端服务器实现,使用 FastMCP 通过标准的 JSON-RPC 方式向 LLM 客户端提供资源、工具以及提示模板等上下文能力,并实现会话管理、能力声明及多传输协议的扩展接口。该仓库同时提供注册与暴露 MCP Tool 名称与描述的功能,支持与客户端的对等互操作。
基于 Model Context Protocol 的 Strava 菜单/订餐 MCP 服务器,为大模型客户端提供统一的资源、工具调用与提示渲染能力,支持 STDIO 与 HTTP Streaming 两种传输。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,使用 FastMCP 构建并对外暴露天气查询与警报工具,支持通过 JSON-RPC 与客户端进行交互,配合 Gemini API 调用外部天气服务。该实现包含服务器端工具注册、请求处理与响应逻辑,属于完整的 MCP 服务器实现范例。
基于 MCP 协议的后端服务,提供 BM25 缓存的创建、查询、刷新及统计等功能,用于加速知识检索工作流(依赖 Oracle 向量存储与本地缓存)。
基于 Model Context Protocol(MCP)的后端服务,为 LLM 客户端(如 Claude)提供统一的上下文服务,包括资源、工具和提示模板的管理;通过 JSON-RPC 进行通信,支持 SSE/stdio 等传输协议,并具备会话管理与认证机制,适合作为法律场景下的上下文与功能后端。
通过MCP协议为LLM提供访问Contentstack Knowledge Vault及模拟数据的功能工具。
基于OpenAI Agents SDK的MCP示例服务器,提供工具注册和SSE传输功能,演示MCP协议后端实现。
为 Replicate 平台上的 AI 模型提供 MCP 接口的服务器,目前支持通过工具调用 Replicate 的文生图模型。
此仓库是基于FastMCP框架实现的MCP服务器,用于演示如何通过MCP协议访问Clever Cloud文档和相关功能,包括文档资源、实用工具和提示模板。
该项目是一个基于FastMCP框架实现的MCP服务器,旨在通过Replicate API提供图像生成和模型信息查询工具,为LLM客户端提供访问Replicate AI模型能力的标准化接口。