基于 Model Context Protocol (MCP) 的后端服务器实现集合,向 LLM 客户端以标准化方式提供资源、工具和提示,并通过 JSON-RPC 进行通信;支持多机器协同、会话管理与多传输协议(如 STDIO、SSE、WebSocket)的可扩展上下文服务框架。仓库内含多个 MCP 服务实例及封装器,用于托管资源、注册工具、渲染Prompts,并提供运行和测试环境。
基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 标准向 MCP 客户端提供 Resources、Tools 与 Prompts 的注册、查询、执行与渲染等核心能力,并支持会话管理与多传输协议接入。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供上下文信息与功能。核心能力包括托管与管理 Resources(数据资源)、注册与执行 Tools(外部功能)、定义与渲染 Prompts(提示模板),通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)实现安全、可扩展的上下文服务。该实现与 Skylos 项目紧密集成,提供对代码分析结果、资源访问、工具执行等能力的统一后端服务。
Brakit 提供基于 Model Context Protocol (MCP) 的服务器端实现,向大型语言模型(LLM)客户端以标准化方式暴露资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多种传输方案,用于在本地环境中为 LLM 应用提供上下文服务与扩展能力。
基于 Model Context Protocol (MCP) 的后端服务器, provide 资源管理、工具注册与执行、以及 Prompt 模板的定义/渲染,并通过 JSON-RPC 与 LLM 客户端进行通信。服务器负责会话管理、能力声明,并支持扩展的传输协议(如 STDIO、SSE、WebSocket),用于向大语言模型应用提供标准化的上下文信息、数据访问、和外部功能调用能力。该仓库实现了完整的 MCP 服务器端能力,包含资源、工具、知识库、演示/demo、以及多工具链的整合。
基于 Model Context Protocol (MCP) 的多模态 MCP 服务器实现集合,围绕 1C:Предприятие 提供“资源/工具/提示模板”的上下文服务与托管能力,并通过 STDIO、HTTP 等传输协议与 MCP 客户端进行通信。代码覆盖 1C 相关的元数据、帮助文档、代码搜索等服务,以及一个用于搜索的 Rust 实现,构成一个可运行的 MCP 服务器生态,以支持 AI 助手在开发场景中的上下文数据和外部功能调用能力。
基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,负责托管资源、注册并执行工具、定义并渲染提示模板,并通过 MCP 标准与客户端进行交互(以 stdio 传输为主,支持会话管理、能力声明及多种渲染能力)。
基于 Model Context Protocol(MCP)的后端服务器集合,向大型语言模型客户端以标准化方式提供上下文信息与功能,包括托管资源、注册与执行工具,以及定义/渲染提示模板;支持多种传输协议(Stdio、SSE、HTTP),通过 JSON-RPC 与客户端通信,适用于 Claude Code 等工作流场景。
基于 Veritas Kanban 的 MCP 服务器实现,提供以 JSON-RPC 方式向 AI 助手/客户端暴露资源、工具、提示模板等上下文能力的后端服务,并支持多传输通道与会话管理。
基于 Model Context Protocol(MCP) 的后端服务器实现,提供资源管理、工具注册与调用、以及 Prompt 模板渲染等能力,供 LLM 客户端以标准化方式获取上下文、数据与外部功能。
基于 Model Context Protocol (MCP) 的 BoxLang 后端服务器实现,提供对 Resources、Tools 与 Prompts 的注册、管理与暴露,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 客户端提供标准化的上下文服务、会话与能力声明。
基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的托管与管理,并通过 MCP 协议向 LLM 客户端暴露上下文服务、数据访问与外部功能调用能力。支持多种传输方式(HTTP/JSON-RPC、SSE、WebSocket/流式)以及多用户隔离。