基于 Model Context Protocol (MCP) 的后端服务器实现集合,向 LLM 客户端以标准化方式提供资源、工具和提示,并通过 JSON-RPC 进行通信;支持多机器协同、会话管理与多传输协议(如 STDIO、SSE、WebSocket)的可扩展上下文服务框架。仓库内含多个 MCP 服务实例及封装器,用于托管资源、注册工具、渲染Prompts,并提供运行和测试环境。
基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 标准向 MCP 客户端提供 Resources、Tools 与 Prompts 的注册、查询、执行与渲染等核心能力,并支持会话管理与多传输协议接入。
Brakit 提供基于 Model Context Protocol (MCP) 的服务器端实现,向大型语言模型(LLM)客户端以标准化方式暴露资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多种传输方案,用于在本地环境中为 LLM 应用提供上下文服务与扩展能力。
基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示的标准化上下文服务,支持通过 JSON-RPC 在 stdio/HTTP 传输,并与 Nostr、SurrealDB、嵌入式模型及上下文虚拟机等模块无缝协作,兼容多种客户端框架的后端上下文服务。
基于 Flow Weaver 的 MCP 服务器实现,提供资源、工具和提示模板的标准化管理与对外暴露,通过 JSON-RPC 与 LLM 客户端进行上下文服务、工具调用和提示渲染,支持多传输协议与会话管理,适配 Claude Code、Cursor、OpenClaw 等 MCP 客户端与插件生态。
基于 Model Context Protocol (MCP) 的后端服务器, provide 资源管理、工具注册与执行、以及 Prompt 模板的定义/渲染,并通过 JSON-RPC 与 LLM 客户端进行通信。服务器负责会话管理、能力声明,并支持扩展的传输协议(如 STDIO、SSE、WebSocket),用于向大语言模型应用提供标准化的上下文信息、数据访问、和外部功能调用能力。该仓库实现了完整的 MCP 服务器端能力,包含资源、工具、知识库、演示/demo、以及多工具链的整合。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行,以及可通过 JSON-RPC 2.0 与 LLM 客户端交互的接口,支持将电视剧集数据、查询工具和资源以标准化方式暴露给 AI 助手。
基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,通过 SSE+JSON-RPC 提供资源、工具和提示的托管、注册、执行与渲染,包含会话管理、权限控制、Web UI、数据库与缓存集成,支持多种传输协议,面向 AI 代理与 IDE 集成的上下文服务框架。
基于 Model Context Protocol(MCP)的后端服务器集合,向大型语言模型客户端以标准化方式提供上下文信息与功能,包括托管资源、注册与执行工具,以及定义/渲染提示模板;支持多种传输协议(Stdio、SSE、HTTP),通过 JSON-RPC 与客户端通信,适用于 Claude Code 等工作流场景。
基于 Veritas Kanban 的 MCP 服务器实现,提供以 JSON-RPC 方式向 AI 助手/客户端暴露资源、工具、提示模板等上下文能力的后端服务,并支持多传输通道与会话管理。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与 Prompt 模板的注册、管理、执行与渲染,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式与会话管理,便于 LLM 客户端获取上下文信息与外部功能。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供 MCP 的核心能力:注册并执行工具(Tools)、托管资源与数据,以及通过 JSON-RPC 风格的交互向 LLM 客户端提供上下文与功能,支持多传输协议(stdio 与 HTTP/SSE)以便与不同的 AI 客户端对接。项目中包含可运行的 MCP 服务器代码和 HTTP/SSE 传输实现,适合作为对接大模型代理的后端服务。
基于 Model Context Protocol (MCP) 的 BoxLang 后端服务器实现,提供对 Resources、Tools 与 Prompts 的注册、管理与暴露,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 客户端提供标准化的上下文服务、会话与能力声明。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的托管与管理,并通过 MCP 协议向 LLM 客户端暴露上下文服务、数据访问与外部功能调用能力。支持多种传输方式(HTTP/JSON-RPC、SSE、WebSocket/流式)以及多用户隔离。