基于 Model Context Protocol(MCP)的后端服务器,向大语言模型客户端以标准化方式提供赛题资源、工具执行和提示模板等上下文服务,支持多种传输方式并可通过本地/远程 mock 平台进行测试。
基于 Model Context Protocol(MCP)的后端实现,为 Huppa 提供 gym 课程查询、预订、等待名单、会员信息等资源的统一访问与工具执行能力,供大型语言模型(LLM)通过 MCP 进行上下文获取和任务执行。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的统一管理与渲染,并通过 JSON-RPC/REST API 与客户端通信。该仓库实现了支持多数据库连接(SQL Server 与 PostgreSQL)、工具注册与执行、提示模板及上下文管理的完整后端,具备 STDIO 与 HTTP/API 传输模式、会话管理、缓存、并发查询等核心能力,适用于向大语言模型(LLM)客户端提供统一的上下文服务。
基于 Model Context Protocol (MCP) 的.NET 实现,提供 Tools、Prompts、Resources 的注册与执行,并通过 SignalR 进行与 MCP 客户端的双向通信,支持多传输模式(stdio、http),实现会话管理、能力声明和扩展的 JSON 序列化配置,适合作为本地应用的 MCP 服务器桥接层。
一个MCP服务器,提供工具辅助AI生成符合规范的Git提交信息,并记录AI在代码库中的贡献。
DaVinci Resolve MCP Server 是一个基于 Model Context Protocol 的服务器,旨在为 LLM 提供访问和控制 DaVinci Resolve 视频编辑软件的能力,实现 AI 辅助视频编辑工作流。