基于 Model Context Protocol (MCP) 的 MCP 服务器实现,旨在为 LLM 客户端提供标准化的上下文服务:托管资源、注册和执行工具,以及定义与渲染提示模板,并通过 HTTP JSON-RPC 与客户端进行交互,支持会话管理与多传输模式(如 HTTP/StdIO)。
基于 Model Context Protocol(MCP)的后端服务,提供资源托管与访问、工具注册与执行、以及可定制的 Prompt 模板渲染,统一通过 JSON-RPC 与客户端交互,并支持多种传输方式(HTTP/SSE/stdio)以实现对大语言模型客户端的上下文与功能服务。
基于 MCP 的后端服务器实现,提供资源、工具、提示模板等标准化上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(stdio、HTTP、SSE、WebSocket 等)。
基于 Model Context Protocol(Model Context Protocol, MCP) 的 Obsidian 插件后端实现,作为 MCP 服务器向本地或远程 LLM 客户端提供资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染等能力;通过 JSON-RPC 与客户端通信,支持多传输通道(如 Stdio、SSE、WebSocket),实现会话管理、能力声明,并可在多 Vault 场景下独立运行本地化上下文服务。
基于 Model Context Protocol(MCP)的后端服务实现,为 LLM 客户端提供标准化的上下文管理能力:托管资源和数据、注册并执行工具、定义并渲染 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议的扩展能力,为面向大语言模型的上下文服务提供安全、可扩展的服务端框架。
基于 Model Context Protocol (MCP) 的后端服务器,作为 LLM 客户端的上下文服务提供资源管理、工具注册/执行、以及 Prompt 模板的渲染与管理,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输协议,具备会话管理、能力声明与安全访问控制等特性。
基于 Model Context Protocol 的 MCP 服务器实现,采用多智能体系统(MAS)协同进行序列思维与推理任务的后端服务,通过 JSON-RPC 与客户端通信,提供资源、工具和提示的管理与渲染。
基于 Model Context Protocol 的 Godot MCP 服务器端实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 JSON-RPC 与客户端通信,支持会话管理与跨传输通道。该仓库实现了一个较为完整的服务器端框架,集成了对 Godot 引擎的检测、资源/场景/脚本等的管理工具,以及多类开发者工具的背后逻辑。适合作为面向 AI 代理的上下文服务后端。
基于 Model Context Protocol 的 MCP 服务器实现,用于为大语言模型客户端提供规范化的上下文服务。核心功能包括托管与管理资源(Resources)、注册与执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端进行通信。服务器负责会话管理、能力声明,支持多传输协议(例如 Stdio、SSE、WebSocket),实现对云日志的上下文化访问与功能扩展。
基于 Model Context Protocol (MCP) 的健康数据后端服务器,向大型语言模型(LLM)客户端以标准化格式提供资源访问、工具执行与提示渲染能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,以实现对健康数据的上下文提供与功能扩展。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 LLM 客户端的上下文服务提供者,托管与管理资源(Resources)、注册并执行 Tools、定义与渲染 Prompt 模板。通过 JSON-RPC 与 Claude Code 等客户端进行通信,提供会话管理、能力声明,以及可扩展的传输协议支持(如 Stdio、SSE、WebSocket),实现跨后端的智能路由、 council(多后端共识)等 MCP 功能,形成稳定、可扩展的后端上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的管理、JSON-RPC 通信与多场景部署能力,能够让 LLM 客户端通过标准接口调用音效资源、获取 Pack 信息并执行音频播放等功能。
基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端提供资源、工具和提示模板,并通过 JSON-RPC 等协议实现标准化的上下文服务与交互。
基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、提示模板等上下文服务,通过 JSON-RPC 与大语言模型客户端交互,整合 Qualys 安全数据并支持模块化扩展。
基于 Model Context Protocol (MCP) 的后端服务,作为 LLM 客户端的上下文提供与能力服务中心,负责托管资源、注册与执行工具,以及管理提示模板、会话与安全性策略。通过 JSON-RPC 与客户端通信,支持 HTTP 传输与 Stdio 传输,适用于在生产环境中为 LLM 提供可扩展的上下文与功能服务。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及通过 JSON-RPC 与客户端进行通信的能力,支持会话管理、能力声明与多传输通道的扩展性,用于将 AI 客户端(LLM)接入到包含资源、外部工具以及可定制提示的实验环境中。
基于 Model Context Protocol (MCP) 的后端服务器,提供对话式上下文管理、资源/工具的注册与执行,以及提示模板的渲染与输出,面向 Claude Code 等 MCP 客户端以 JSON-RPC 风格进行资源访问、工具调用和提示生成。
基于 Model Context Protocol 的 MCP 服务器实现,集成资源、工具、提示模板等能力,提供标准化的上下文服务以供 LLM 客户端调用,并通过 Stdio 传输支持快速本地测试与集成。
基于 Model Context Protocol 的后端服务器实现,提供资源、工具与提示模板的统一上下文服务,支持多传输协议(stdio、HTTP 等)并通过 JSON-RPC 与 LLM 客户端通信,适用于 Huly 集成场景。
基于 Model Context Protocol (MCP) 的后端服务,提供资源托管与管理、工具注册与执行、以及 Prompt 模板的渲染与管理等能力,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用与 Prompt 获取等上下文服务。
基于模型上下文协议(MCP)的开源后端服务器,向大语言模型客户端以标准化方式提供资源管理、工具注册/执行与提示模板渲染,支持 JSON-RPC 风格通信、会话管理与多传输协议(stdio、HTTP/WS 等)。
Crust 是一个本地的 Model Context Protocol 网关后端,通过 JSON-RPC 与 MCP 客户端通信,提供资源、工具、提示模板等上下文服务,并在网关层实现安全规则拦截,支持多传输协议(如 Stdio、SSE、WebSocket)的接入与扩展。
基于 Model Context Protocol (MCP) 的后端实现,作为 Claude Code Harness 的核心服务之一,负责托管资源(Resources)、注册及执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与 LLM 客户端进行标准化交互,提供上下文信息、数据访问与外部功能调用等能力,支持多种传输方式(如标准输入输出、SSE、WebSocket 等)以实现安全、可扩展的后端上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板等能力的注册、执行与渲染,并通过 JSON-RPC 与 MCP 客户端通信;核心组件包含一个可运行的 MCP 服务器、能力注册与同步、以及与 GUI 后端的桥接,使 LLM 客户端能够以标准化方式获取上下文数据、调用外部工具与渲染 Prompt。
基于 MCP 架构的后端服务器,向 LLM 客户端标准化提供资源、工具和提示(Prompts)等上下文与能力,通过 JSON-RPC 进行请求/响应,并支持多传输协议(如 Stdio/SSE/WebSocket)与会话管理,用于构建安全、可拓展的 AI 应用后台。
基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源、工具、提示模板的注册、执行与渲染,并通过 JSON-RPC 与 MCP 客户端进行通信,支持会话管理、能力声明,以及资产的管理与扩展。
基于 Model Context Protocol (MCP) 的后端实现,提供资源(Resource)、工具(Tool)注册与查询、以及提示模板(Prompt)的管理与渲染;通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明,并实现以 STDIO 为传输的 MCP 服务器,作为 LLM 客户端的上下文服务框架。该仓库实现了完整的 MCP 服务端逻辑,可与 Claude Desktop、Cursor 等 MCP 客户端协同工作,以标准化方式提供资源、工具与提示信息。
AdaptivMCP 是一个自托管的 MCP 服务器实现,集合了 GitHub/Render 自动化工具、资源管理、工具注册与执行,以及提示模板渲染等功能,并通过 JSON-RPC 与 LLM 客户端通信。支持多传输协议(Streamable HTTP / SSE),并提供注册/诊断 UI,方便与 OpenAI/ChatGPT MCP 连接器对接与调试。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理与渲染,并通过 JSON-RPC 与 LLM 客户端交互,支持在云端对 GitHub 资源与自动化工作流进行上下文服务。
基于 Model Context Protocol 的 MCP 后端,为大语言模型提供上下文资源、工具调用和提示模板渲染等能力,支持 JSON-RPC 通信及多传输协议扩展,内置浏览器自动化与会话/缓存等核心模块。
面向大语言模型的后端MCP服务器,实现通过JSON-RPC向LLM客户端提供资源、工具和Prompt相关的上下文服务,支持跨GitHub、Jira、Confluence的数据获取与操作,以及会话管理与多传输协议接入的能力。
基于模型上下文协议(MCP)的后端服务,实现资源、工具及提示模板的注册、执行与管理,提供 JSON-RPC 通信能力,便于让大语言模型客户端通过 MCP 调用 Databricks 作业等功能。
基于 FastAPI 的服务器端实现,将任意基于 Model Context Protocol (MCP) 的服务暴露为标准的 HTTP/JSON 接口,向语言模型客户端提供资源数据、工具调用、提示模板等上下文能力,并具备多租户会话、OAuth 安全、令牌管理与流式输出等企业特性。它实现了 MCP 的核心组件组合与对外暴露的服务入口,便于整合到企业微服务架构中。
基于 Model Context Protocol (MCP) 的后端实现,提供策略评估、计费意图创建与使用计量等工具,通过 JSON-RPC 与 LLM 客户端交互,支持多种传输方式,作为 AI 代理上下文服务的核心服务器组件。
基于 Model Context Protocol (MCP) 的 Java 实现的 MCP 服务器端,提供对资源、工具、提示的注册与执行,以及会话管理与多传输协议(REST/Servlet/SSE、Streamable HTTP)的支持,通过 JSON-RPC 与客户端进行通信。
基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。
基于 Model Context Protocol 的 MCP 服务器实现,提供对 Sirchmunk 的资源托管、工具注册与执行,以及提示模板渲染等能力,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文与功能服务。
基于模型上下文协议(MCP)的后端实现,用于向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染等能力,并通过 JSON-RPC/WebSocket 等传输协议进行通信。本仓库包含完整的服务端实现、工具暴露、Prompts 加载与渲染、会话管理以及安全策略,能够作为可运行的 MCP 服务器端提供上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/管理、Prompt 的定义与渲染,以及会话管理与协议能力声明,支持通过标准输入输出或流式 HTTP 等传输协议与客户端进行 JSON-RPC 通信,用于为大型语言模型(LLM)提供上下文信息与外部功能访问能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供多智能体协作、资源与工具管理、Prompts 定义与渲染等能力,并通过 JSON-RPC 与客户端通信(当前实现以 Stdio 传输为主)。该服务器承担会话管理、能力声明、工具注册与执行、以及任务编排等核心职责,支持扩展的工具集和工作流模板,适合为 LLM 客户端提供标准化的上下文服务。 jovens
基于 MCP(Model Context Protocol)的后端服务器实现,提供资源管理、工具执行与上下文提示渲染等能力,支持 LLM 客户端以标准化的 JSON-RPC/HTTP 方式进行通信与协作。
基于 Model Context Protocol (MCP) 的后端服务器实现,为多租户 CRM 提供资源、工具与提示模板的上下文服务,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多单位配置与安全访问。
基于 MCP 协议的 Claude Desktop 集成后端,为 MTG CardForge 提供资源、工具和提示模板等上下文服务,用于向 LLM 客户端提供统一的数据访问、工具执行和对话模板渲染能力。
基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的托管与管理、工具注册与执行、以及 Prompt 模板的渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议扩展。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具和 Prompts 的统一访问与渲染能力,支持通过标准化的 JSON-RPC 进行通信,并可通过 STDIO 等传输通道接入。
在 Unity 编辑器内原生实现的 MCP 服务器,提供 Resource、Tools、Prompts 等模块的后端能力,允许通过 JSON-RPC 风格的命令注册与执行,与 LLM 客户端进行上下文和功能交互,支持多种传输方式(如 Stdio、SSE、WebSocket)并包含安全与生命周期管理。