基于 Model Context Protocol (MCP) 的服务器端实现,提供对代理任务看板的资源、工具、提示等能力,通过 JSON-RPC 的 MCP 交互向 LLM 客户端暴露 backlog、编辑、查询等能力,并包含本地/团队模式、UI Kanban 界面以及 Leader 选举等特性。该仓库中的 MCP 服务端实现了工具注册、请求分发、日志与数据库契合,以及与前端 UI 的协同工作。
基于注解的 MCP 服务器框架,用于向 LLM 客户端提供上下文信息和功能,包括托管资源、注册工具、定义提示模板,并支持 STDIO、SSE、STREAMABLE 等传输模式。
基于 MCP 协议的后端服务,暴露文本转语音(TTS)功能为可通过 JSON-RPC 调用的工具,供大语言模型客户端在对话中按需进行语音输出与会话管理扩展。该实现提供一个注册的 speak 工具,通过标准 MCP 机制接收文本输入并返回语音执行结果或错误信息。
基于 Model Context Protocol (MCP) 的 Python 后端服务器,暴露 AdventureWorksLT 的只读工具给大型语言模型 (LLM) 进行结构化数据访问与推理,并通过 JSON-RPC/stdio 等传输方式与客户端协同工作。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行,以及可通过 JSON-RPC 2.0 与 LLM 客户端交互的接口,支持将电视剧集数据、查询工具和资源以标准化方式暴露给 AI 助手。
一个基于 Model Context Protocol 的 MCP 服务器实现,使用标准的 JSON-RPC over STDIO 与 MCP 客户端通信,能够托管和管理资源、注册并执行工具、定义并渲染 Prompt,并为 LLM 客户端提供上下文服务和功能调用能力。
基于模型上下文协议(MCP)的后端服务器实现,提供通过 MCP 客户端以标准化 JSON-RPC 方式访问 Bitbucket Cloud 的资源、工具和提示模板,支持在 stdio 传输下与 LLM 应用对接。
基于 Model Context Protocol (MCP) 的后端服务器,标准化向大语言模型客户端提供新闻资源、工具和提示模板,支持本地 stdio 与 HTTP/SSE 传输,以实现实时上下文和外部功能的访问。
基于 Model Context Protocol(MCP)的后端服务,实现对资源、工具与 Prompt 模板的管理与渲染,提供面向 LLM 客户端的上下文服务与交互能力,支持多种传输模式(STDIO、SSE、HTTP),实现 Java 生态中的 Jakarta EE 迁移支持与分析工具的远程调用。
基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。
基于 Model Context Protocol 的 MCP 服务器,提供对 The Blue Alliance (TBA) 数据的资源访问与工具调用能力,供 LLM 客户端通过标准化的 JSON-RPC 接口进行交互与上下文注入。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)等能力,并通过 JSON-RPC 形式与 LLM 客户端交互,支持多种传输方式(如 STDIO、HTTP)。
mcp-server-diceroll 是一个实现了 Model Context Protocol (MCP) 协议的简单服务器,提供了一个“roll_dice”工具,允许语言模型客户端调用该工具来模拟掷骰子并获取结果。
Jupyter MCP Server是一个MCP服务器实现,它允许LLM客户端与本地JupyterLab环境中的notebook进行交互,执行代码、添加Markdown和下载地球科学数据。
连接JIRA与大语言模型的MCP服务器,提供JQL查询和获取JIRA issue详情工具,方便LLM应用访问JIRA数据。