基于 Model Context Protocol 的 MCP 服务器端实现,提供对内存/资源的暴露、工具注册与执行,以及与客户端的 JSON-RPC 交互能力,支持通过不同传输协议与 LLM 客户端通信以提供上下文服务和记忆能力。
基于 Model Context Protocol (MCP) 的独立后端服务,提供资源管理、工具注册与执行,以及提示模板的读取与渲染能力,供大语言模型客户端通过标准化的 JSON-RPC 方式获取上下文信息与外部功能。该实现包含独立的 MCP 服务器、工具注册、HTTP 路由(健康检查与请求处理)以及与向量检索、任务队列等后端组件的整合。
基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册/执行、以及提示模板的定义与渲染,通过 JSON-RPC 与客户端通信,支持 Streamable HTTP 与 Legacy SSE 等传输模式,用以为大语言模型客户端提供标准化的上下文服务框架。
基于 Model Context Protocol (MCP) 的服务器实现,作为后端后端上下文服务提供者,托管资源、注册与执行工具、定义与渲染 prompts,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输协议,面向 Claude Code 生态的可扩展上下文服务框架。
基于 Model Context Protocol (MCP) 的多智能体协作后端服务器,提供资源、工具、Prompts 的托管与管理,并通过 JSON-RPC 与客户端通信,支持跨进程/进程间传输(如 Stdio、WebSocket 等)。
基于 Model Context Protocol (MCP) 的后端服务器,将 CTFd 的挑战、挑战详情、提交 Flag 以及容器化挑战的管理等功能以 MCP 服务形式暴露给 LLM 客户端,支持通过 JSON-RPC 调用并在多种传输协议下运行。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册、资源管理与提示模板渲染,通过 JSON-RPC 与 LLM 客户端交互,将请求转发到管理端策略引擎并返回执行结果,支持健康检查与可扩展的传输方案。
基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型(LLM)客户端提供统一的 eBay Sell API 资源与工具,以及可定制的 Prompt 渲染,支持 JSON-RPC 通信、会话管理和多传输协议(STDIO/HTTP)等能力。
基于 Model Context Protocol 的 MCP 服务器实现,采用多智能体系统(MAS)协同进行序列思维与推理任务的后端服务,通过 JSON-RPC 与客户端通信,提供资源、工具和提示的管理与渲染。
基于 Model Context Protocol (MCP) 的服务器实现,为大型语言模型(LLM)客户端提供 YNAB 的资源、工具调用和数据转换能力。通过 MCP,LLM 可以读取预算数据、执行信用的财务操作、以及获取格式化的响应。该仓库中的 MCP 服务器实现包含大量对 YNAB API 的工具暴露,并通过标准的 JSON-RPC 形式与客户端通讯,支持标准输入输出传输(stdio)。
基于 Model Context Protocol(MCP)的服务器端实现,提供资源管理、工具注册与执行、Prompt 渲染等上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输模式。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 JSON-RPC(以 MCP 为核心)与客户端通信,支持通过 STDIO 传输的 MCP 后端服务。
基于 Model Context Protocol 的 Godot MCP 服务器端实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 JSON-RPC 与客户端通信,支持会话管理与跨传输通道。该仓库实现了一个较为完整的服务器端框架,集成了对 Godot 引擎的检测、资源/场景/脚本等的管理工具,以及多类开发者工具的背后逻辑。适合作为面向 AI 代理的上下文服务后端。
基于模型上下文协议(MCP)的服务器插件,将 KlayoutClaw 嵌入到桌面 KLayout 环境中,提供资源管理、工具执行和提示模板渲染等能力,并通过 JSON-RPC/HTTP 与客户端通信,为本地 LLM 应用提供安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,使用 JSON-RPC 与 LLM 客户端通信,支持多传输协议以实现安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于通过 JSON-RPC 与 LLM 客户端协同,管理多设备串口资源、注册并执行工具(Tools)、以及提供动态的提示/模板渲染能力,核心在于为 AI 应用提供统一的上下文和外部功能访问接口。
基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息和功能。核心职责包括托管和管理 资源(Resources)、注册与执行 工具(Tools)、以及定义和渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持多种传输介质(如 STDIO、HTTP)。仓库内实现了 MCP 服务端核心、工具集合、绘制与 BOM 生成等关键模块,具备可运行的服务端代码与测试用例。
基于 Model Context Protocol 的生产级 MCP 服务器套件,面向全国多站点的物理 AI 肿瘤临床试验场景,提供资源与工具管理、提示模板、以及面向 LLM 的上下文服务与安全合规能力。
基于 Model Context Protocol (MCP) 的 Tekla Structures 服务端实现,提供标准化的上下文信息、工具执行与模板渲染等能力,通过 JSON-RPC 与客户端通信,供大模型/LLM 客户端获取 Tekla 模型的上下文数据、执行外部功能及渲染提示模板。
一个基于 Model Context Protocol 的 MCP 服务器实现,提供 LinkedIn 数据抓取相关的资源、工具和提示模板,并通过 MCP JSON-RPC 与客户端通信,支持会话管理、工具注册与自定义提示渲染等能力。
基于 Model Context Protocol(MCP)的后端服务器,提供标准化的资源管理、工具注册与调用、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行通信。该服务器以 Jira 数据为驱动,通过数据摄取、分析管线与 Monte-Carlo 模拟为 AI 助手提供可控、可扩展的上下文服务,支持会话管理、能力声明以及多传输协议接入,适用于将自然语言查询转换为可落地的分析、图表与预测。
基于模型上下文协议(MCP)的后端实现,提供对内置与外部工具的注册与执行、会话管理,以及通过 HTTP 桥接在 Pulsar 编辑器内对外提供标准化的 JSON-RPC 服务,支持批量请求、健康检查和工具清单查询等核心能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于通过标准化的 JSON-RPC 交互向 LLM 客户端提供资源管理、工具执行、以及可渲染的提示模板等上下文服务,支持多传输协议(如标准输入输出、HTTP 流式传输等),并包含代码执行工具与文档检索工具等扩展能力。
基于 Model Context Protocol (MCP) 的后端服务,提供技能资源管理、工具注册与执行、以及提示模板渲染,向 LLM 客户端以标准 JSON-RPC 交互提供上下文与能力,支持多传输接口与会话管理。适合作为 AI 代理的可扩展上下文服务端。
基于 Model Context Protocol 的 MCP 服务器实现,能够向 LLM 客户端以标准化方式提供上下文信息和功能,包括资源管理、工具注册与执行,以及 Prompt 模板的渲染与渲染结果的序列化,通过 JSON-RPC 与客户端通信,并支持流式传输等多种传输模式。该仓库实现了服务器端逻辑和对外暴露的工具/资源接口,便于与大型语言模型进行后端上下文交互与功能调用。
基于 Model Context Protocol 的企业级 MCP 服务器框架,提供资源与工具托管、提示模板、JSON-RPC 通信、OpenTelemetry 观测、企业级认证等能力,支持多传输模式(Stdio、SSE、WebSocket)与服务器组件聚合与扩展,能够为 LLM 客户端提供上下文数据、工具调用和提示渲染等服务。
基于 Model Context Protocol (MCP) 的后端服务,作为 LLM 客户端的上下文服务提供者,负责资源与工具的托管管理、Prompt 模板的定义与渲染,以及与 MCP 客户端通过 JSON-RPC 协议进行通信。该实现包含身份鉴权、会话管理、快照与导入流程、以及对工具的注册与执行能力,支持多种传输与扩展能力,定位为 Agentier IDE 等环境中的后端上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器,将多平台内容抓取能力通过 MCP 工具对外暴露,支持读取资源、注册与执行工具、以及与客户端进行 JSON-RPC 交互的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器,提供对 Microsoft Access 数据库的资源管理、工具注册与执行以及提示模板渲染等能力,供大语言模型客户端通过 JSON-RPC 调用以获取上下文和功能支持。
基于 Model Context Protocol (MCP) 的后端实现,提供资源与工具管理、Prompt 注册,以及通过 JSON-RPC 进行与 LLM 客户端的安全对话,支持 stdio 与 HTTP 两种传输模式,适配 Copilot 等对 MCP 的场景需求。
基于 Model Context Protocol 的多传输 MCP 服务器,提供 Google Play 与 Apple App Store 的数据资源、工具执行以及提示模板等能力,以 JSON-RPC 与 LLM 客户端标准化交互,支持 HTTP、SSE 等传输协议。
基于 Model Context Protocol 的 MCP 后端,为大语言模型提供上下文资源、工具调用和提示模板渲染等能力,支持 JSON-RPC 通信及多传输协议扩展,内置浏览器自动化与会话/缓存等核心模块。
基于 Model Context Protocol (MCP) 的完整后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与 LLM 客户端通信,支持 Godot 引擎与编辑器插件的桥接执行,满足在多传输通道下的上下文服务需求。
基于 Model Context Protocol 的后端服务,使用 OpenCage 地理编码 API 提供正向/反向地理编码和 API 使用状态查询,并通过 JSON-RPC 与 MCP 客户端进行交互。
基于模型上下文协议(Model Context Protocol, MCP)的服务器实现,提供对 GitHub 相关资源的访问与工具执行能力,并通过 JSON-RPC 与客户端进行通信,支持以 STDIO 传输进行交互的实际服务器实现。
基于 Model Context Protocol(MCP)的后端服务器,实现对哈尔科夫地铁路线、时刻表、站点等资源的托管与访问,并通过 JSON-RPC 与 LLM 客户端进行交互,提供路由查询、日程、站点列表以及站名查找等工具。
基于 Model Context Protocol(MCP)的后端服务器,向大模型客户端提供资源管理、工具注册/执行和提示渲染等能力,并通过 JSON-RPC 与客户端通信,支持多种传输模式与会话管理。
基于 Model Context Protocol (MCP) 的后端服务器,为语言模型客户端提供 Google Play Store 的应用发现、详情、评价、关键词建议以及元数据校验等能力,具备代理轮换、会话管理和多工具接口,当前实现为可运行的原型。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供资源、工具及提示模板的托管、注册与执行,采用 JSON-RPC 进行通信,并具备会话管理与能力声明。该服务器封装了指标计算工具集的对接入口,允许通过 MCP 客户端灵活读取工具信息、执行单/多项指标、获取指标详情等能力。
基于 Model Context Protocol (MCP) 的 Photoshop 后端实现,提供将资源、工具执行能力和提示模板等以标准化 JSON-RPC 形式暴露给 LLM 客户端的后台服务,能够在 MCP 客户端与 Photoshop 的 UXP 环境之间进行交互、执行脚本、读取模式与架构信息并返回结果。
基于 Model Context Protocol (MCP) 的后端实现,提供策略评估、计费意图创建与使用计量等工具,通过 JSON-RPC 与 LLM 客户端交互,支持多种传输方式,作为 AI 代理上下文服务的核心服务器组件。
基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端以标准化方式提供 Direct、Metrica、Wordstat、Audience 等资源、工具和提示模板,支持 JSON-RPC 通信、会话管理、能力声明,以及多种传输模式(如 Stdin/Stdout、SSE、WebSocket)的上下文服务。
基于 Model Context Protocol 的本地文档服务端,结合离线索引的 Apple 文档,向 AI 客户端提供资源、工具与提示模板的 JSON-RPC 服务。
基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 方式暴露 Home Assistant 的资源、工具与提示模板,支持通过 MCP 客户端调用读取实体、执行服务、管理排程等功能。
基于 Model Context Protocol 的后端服务实现,提供资源托管、工具执行、以及提示模板渲染等能力,支持通过 JSON-RPC 与大语言模型客户端进行资源读取、外部功能调用、以及上下文管理等交互。服务器端提供 STDIO 传输的 JSON-RPC 服务,并可选搭建 HTTP 调试接口,适合将本地上下文服务嵌入到 AI 助手工作流中,便于对接 Kubernetes 资源、CRD、以及服务器端的 dry-run 验证等功能。
基于 Model Context Protocol 的 MCP 服务器实现,提供对网络设备的上下文化访问、工具执行、状态快照等能力;通过 JSON-RPC 与客户端通信,管理资源、注册工具并渲染提示模板,支撑多设备的自动化和 Troubleshooting 场景。
基于模型上下文协议(MCP)的后端服务器,实现资源/工具/提示模板的托管与对外能力暴露,支持 JSON-RPC 请求、SSE 实时传输和会话管理,为 LLM 客户端提供标准化的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 形式暴露资源、工具和提示,提供会话管理、能力声明、工具注册与执行,以及对多种传输协议的支持,构建可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务,把 Form.io 表单、资源和工具以标准化的 JSON-RPC 形式暴露给大型语言模型客户端,提供资源托管、工具注册/执行、Prompt 模板渲染等能力,并通过多种传输方式(HTTP 流、SSE、WebSocket 等)实现与客户端的通信。
基于 Model Context Protocol (MCP) 的后端服务器,提供标准化的上下文服务给 LLM 客户端。该服务器托管和管理用于取证分析的资源与数据访问能力、注册并执行工具以调用外部功能,并定义与渲染可定制的 Prompt 模板,支持 JSON-RPC 通信、会话管理以及多传输协议扩展,为跨平台取证分析与 AI 辅助分析提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的服务端实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与 LLM 客户端通信,管理会话与能力声明,并具备多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,用于对接外部数据源、工具和上下文提示等,实现对 LLM 的上下文服务提供与编排。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大模型客户端以标准化方式提供 Electron 应用的上下文、资源、工具与提示模板,具备 JSON-RPC 通信、会话管理,并可通过 Stdio、SSE、WebSocket 多种传输协议进行交互;集成 Chrome DevTools Protocol (CDP) 实现对 Electron 应用的自动化与调试支撑。
基于 Model Context Protocol 的 MCP 服务器实现,作为后端中间层对接 LLM 客户端与 odd-ssg 适配器,提供资源管理、工具注册与执行,以及基于模板的提示渲染能力,通过 JSON-RPC 与客户端通信。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,为多租户 CRM 提供资源、工具与提示模板的上下文服务,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多单位配置与安全访问。
基于 MCP 协议的 Claude Desktop 集成后端,为 MTG CardForge 提供资源、工具和提示模板等上下文服务,用于向 LLM 客户端提供统一的数据访问、工具执行和对话模板渲染能力。
基于 Model Context Protocol 的 MCP 后端服务器,实现资源与工具的管理,并通过 JSON-RPC 接口与 LLM 客户端进行交互,支持多工具与内容生成功能。
基于 Model Context Protocol (MCP) 的邮件上下文后端,为大模型/LLM 客户端提供资源访问、工具执行和提示渲染能力;通过 JSON-RPC 与客户端通信,支持在本地Outlook 环境中进行邮件加载、查询、撰写与批量转发等操作,并提供服务端会话管理与工具注册机制。该实现面向在 Windows 上使用 Outlook 的场景,核心目的是为 LLM 应用提供可扩展、可控的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。
基于模型上下文协议的多云云资源管理后端,聚合 AWS、GCP、Azure、DigitalOcean 等云提供商的工具接口,并通过 JSON-RPC 与大语言模型客户端协作,提供工具执行、资源访问与上下文服务。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的标准化管理与执行,并通过 JSON-RPC 与客户端进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket/HTTP)以实现对本地资源、外部能力和交互场景的可扩展上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具和 Prompts 的统一访问与渲染能力,支持通过标准化的 JSON-RPC 进行通信,并可通过 STDIO 等传输通道接入。
在 Unity 编辑器内原生实现的 MCP 服务器,提供 Resource、Tools、Prompts 等模块的后端能力,允许通过 JSON-RPC 风格的命令注册与执行,与 LLM 客户端进行上下文和功能交互,支持多种传输方式(如 Stdio、SSE、WebSocket)并包含安全与生命周期管理。
基于 Model Context Protocol (MCP) 的服务器实现模板集,提供多种工具服务(如日期与时间、计算等)以及标准的 MCP 资源与工具暴露,适合通过标准传输(如 stdio)向 LLM 客户端提供上下文、工具执行和模板化 Prompt 的后端能力。