基于 Model Context Protocol(MCP)的后端服务,提供资源托管与访问、工具注册与执行、以及可定制的 Prompt 模板渲染,统一通过 JSON-RPC 与客户端交互,并支持多种传输方式(HTTP/SSE/stdio)以实现对大语言模型客户端的上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息和功能。核心职责包括托管和管理 资源(Resources)、注册与执行 工具(Tools)、以及定义和渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持多种传输介质(如 STDIO、HTTP)。仓库内实现了 MCP 服务端核心、工具集合、绘制与 BOM 生成等关键模块,具备可运行的服务端代码与测试用例。
基于 Model Context Protocol(MCP) 的后端服务,作为本地大模型应用的上下文提供者。该服务器托管与管理 Resources(数据资源)、Tools(可注册并供 LLM 调用的外部功能)以及 Prompts(Prompt 模板渲染),通过 JSON-RPC 与客户端通信,完成会话管理、能力声明以及跨传输协议(如 Stdio、SSE、WebSocket)的上下文服务,方便编辑器、IDE 以及本地模型进行组合式推理与扩展。仓库中明确包含 MCP 集成组件、启动脚本及相关文档,具备对 MCP 客户端的完整支持能力。
一个基于模型上下文协议(MCP)的后端服务器,提供结构化的上下文记忆、资源管理、工具注册与执行,以及 Prompt 模板渲染,面向 AI 客户端以 JSON-RPC 方式进行交互。