返回首页

"语义内存" 标签

6 个结果

标签搜索结果

AI与计算

Grimoire MCP 服务器(Grimoire-kit 集成)

基于 Model Context Protocol 的 MCP 服务器实现,作为 Grimoire-kit 的服务端组件,向 LLM 客户端暴露资源、工具与 Prompt 模板等上下文信息,通过 JSON-RPC 进行通信,并支持多种传输方式与会话管理。该实现具备工具暴露、自动化工具发现、会话与记忆能力等特性,能够在本地 IDE/Copilot 等客户端环境中提供统一的上下文服务框架。

AI与计算

Osoba MCP 服务端

基于模型上下文协议(MCP)的多工具后端,提供资源、工具、提示模板等 MCP 服务模块,用于向本地/托管的大语言模型客户端暴露数据访问、外部功能调用和上下文渲染能力。

AI与计算

Swarm Tools MCP 服务器

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,围绕 Swarm 的 Hive/Hivemind/Swarmmail/Swarm 工具等组件,通过标准化的 JSON-RPC 接口向 LLM 客户端暴露工具注册、资源访问、提示模板等能力,并以 stdio 为传输实现服务器端与客户端的通信与协作。

AI与计算

MCP Standards: Claude Memory Server

基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具和提示模板的标准化托管与管理,并通过 JSON-RPC 与客户端进行通信。该服务器具备会话管理、能力声明、可扩展的插件化学习组件(如模糊的 PatternExtractor、CLAUDE.md 管理、日志审计等),并支持将多种存储后端技术(如 AgentDB 与 SQLite 的混合内存)结合以提供高效的上下文服务。

AI与计算

Opencode MCP 语义上下文服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供持久化记忆、工具执行和 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持内存资源管理、工具注册/执行、Prompt 渲染,以及会话管理,具备本地向量检索、离线嵌入和多种传输能力的服务端实现。

AI与计算

HMLR Memory MCP 服务器(Go 实现)

基于 Model Context Protocol 的内存后端服务器,提供资源管理、工具执行与提示渲染等 MCP 功能。通过标准的 JSON-RPC 风格接口与客户端通信,内部实现了会话管理、主题路由、向量检索、事实抽取等能力,并通过标准输入输出(STDIO)提供 MCP 服务,适配 Claude Code 等 MCP 客户端进行上下文管理与外部功能调用。