标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务端实现,提供对资源、工具、提示模板的托管与渲染,使用 JSON-RPC 与客户端通信,默认通过标准输入输出进行交互,支持多传输通道的扩展能力,为大模型客户端提供高效的上下文与功能服务。
基于 Model Context Protocol(MCP)的本地化后端服务,使用 SQLite 持久化存储并通过 stdio 进行 JSON-RPC 通信,向 LLM 客户端提供资源、工具和提示模板等能力,便于在本地环境中为 AI 编码代理提供上下文与功能。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的管理、以及 Prompt 模板的定义与渲染,向 LLM 客户端按标准化 JSON-RPC 方式提供上下文信息与功能。通过 STDIO 传输、可扩展传输等能力,支持对本地活动历史的上下文服务。
基于 Model Context Protocol (MCP) 的本地上下文后端,提供资源管理、工具注册和提示模板渲染等能力,并通过 JSON-RPC 与客户端通信,支持 stdio 等传输方式。}
该项目实现了基于MCP协议的服务器,用于统一管理和向LLM客户端提供本地AI编码助手(如Claude Code, Gemini CLI, OpenAI Codex, opencode)的历史会话记录。