基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等能力,供 LLM 客户端以统一的 JSON-RPC 风格通过 MCP 进行访问与调用。
基于 Model Context Protocol (MCP) 的后端内存服务,实现资源、工具、提示等接口,供 LLM 客户端读取、调用外部功能并执行提示渲染,支持 STDIO/HTTP 传输的 JSON-RPC 风格交互。
基于 Model Context Protocol (MCP) 的服务器端后端,提供持久化AI记忆的存储、向LLM客户端暴露的工具/资源/模板,并支持基于向量检索的语义能力和通过 rclone 的跨机器同步,采用 JSON-RPC 风格的 MCP 协议进行通信和会话管理。
BranchMind 依据 MCP(Model Context Protocol)实现的后端服务,面向 LLM 客户端提供统一的上下文资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持多种传输通道(如 Stdio、SSE、WebSocket),实现会话管理、能力声明与安全可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具执行与提示模板渲染等功能。服务器通过 JSON-RPC 与客户端进行通信,支持资源读取、工具注册/执行、以及提示模板的定义与渲染,並可通过多种传输方式(如标准输入输出、SSE、WebSocket)扩展到不同的应用场景。该实现与 Kernle 的核心存储/推理能力紧密集成,面向企业/研究场景提供安全、可扩展的上下文服务后台。