返回首页

"记忆管理" 标签

46 个结果

标签搜索结果

AI与计算

MemoLite MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册/执行以及上下文化 Prompt/记忆能力,通过 JSON-RPC 与 LLM 客户端通信并支持多种传输方式。

AI与计算

DevTest MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行、提示模板渲染等能力,供 LLM 客户端通过 JSON-RPC/HTTP 等方式访问并进行意图解析与执行任务的上下文服务。

AI与计算

Neo4j Agent Memory MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,提供资源存储、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多传输方式以供 LLM 应用使用。

AI与计算

knowledge-server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板,统一通过 JSON-RPC/HTTP 方式向本地或嵌入式的 LLM 客户端提供上下文服务与推理支持。

AI与计算

Mnemonic MCP 服务器

一个本地的 MCP(Model Context Protocol)服务器实现,提供记忆库管理、嵌入向量存储、工具执行以及基于提示的交互渲染,核心通过 JSON-RPC 与 LLM 客户端进行资源、工具和提示的访问与执行。支持多 Vault(全局主 Vault 与项目 Vault)的会话管理、迁移、同步等能力,适合在本地环境中为 LLM 应用提供可扩展的上下文服务。

AI与计算

Memento MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义以及通过 JSON-RPC 的 MCP 协议与 LLM 客户端交互,支持流式传输、SSE、OAuth2PKCE、会话管理与长时记忆分片系统等能力,面向 AI 记忆与上下文服务场景的可扩展后端。

AI与计算

memorybox

基于 MCP 的后端服务器,为 AI 代理提供持久化记忆、数据访问和工具执行能力;通过本地 SQLite 库存储并可跨会话检索记忆,集成五个 MCP 工具以进行存储、检索、召回、删除和列出记忆的操作。

AI与计算

Context Mesh Foundry MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,提供跨记忆与历史的查询、保存与健康检测等工具,供 LLM 客户端通过 JSON-RPC 形式访问和调用。

AI与计算

Vestige MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供资源管理、工具执行和 Prompt 渲染等上下文服务,支持 JSON-RPC 通信与多传输通道(此实现以标准输入/输出(stdio)为通信介质)并实现了初始化、工具与资源查询等核心功能。

AI与计算

HCE MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供对 Holographic Context Engine(HCE)三大记忆结构的资源、工具和提示模板等功能的标准化访问,通过 JSON-RPC(在 stdio 传输下)与 MCP 客户端通信,支持会话管理、状态持久化以及对外部工具的注册与执行。

AI与计算

AuraSDK MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端进行通信,支持纯 Python 实现与 Rust 实现的双版本 MCP 服务端,适用于 Claude Desktop 等 MCP 客户端场景。

AI与计算

BOND MCP Server 集成实现

基于 Model Context Protocol (MCP) 的多服务后端实现与管理台,提供 QAIS、ISS 等 MCP 服务器、资源/工具/提示模板的托管与渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明与多传输通道(如 STDIO、SSE、WebSocket)。

AI与计算

Cairn MCP 服务端

基于 Model Context Protocol 的后端服务器,提供资源管理、工具执行与提示模板渲染,并通过 JSON-RPC MCP 协议向 LLM 客户端提供可扩展的上下文服务,支持 STDIO、HTTP、WebSocket 等传输方式与 REST 辅助接口。

AI与计算

agent-memory MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,为 AI Agent 提供长时记忆、工具执行和资源管理能力,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输通道(如 StdIO、SSE、WebSocket)。

开发者工具

CodeAgent MCP 服务器套件

基于 Model Context Protocol (MCP) 的多模块后端服务器集合,向 LLM 客户端以标准化方式提供资源、工具和提示模板的访问、执行与渲染能力,支持跨多个 MCP 服务的协同工作与会话管理。

AI与计算

SkillKit Memory MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,提供内存资源与工具访问能力供大模型客户端读取和写入记忆、执行内存相关操作以及与技能系统对接。

AI与计算

ELF-MCP 服务器实现

基于 ELF 的 MCP 服务器实现,提供对大型语言模型(LLM)客户端的资源、工具调用与提示模板的上下文服务。通过 JSON-RPC 风格的 MCP 协议,将对资源和工具的访问请求转发到 ELF HTTP API,支持多种传输和会话模式,易于与 Claude 等 MCP 客户端对接。

开发者工具

ClaudeMemory MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供对资源、工具与提示模板的统一管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明以及多种传输方式,用于在代码分析与开发场景中提供可扩展的上下文服务。

开发者工具

ACE - Agentic Context Engine

一个开源且高精度的上下文引擎,作为MCP服务器提供统一的记忆管理、代码和记忆检索及增强提示能力。

AI与计算

Memory Library MCP Server

基于 Memory Library 的 MCP 服务器实现,为大语言模型客户端提供统一的上下文、工具、资源和提示,支持通过 JSON-RPC 进行交互,并可扩展的向量检索与嵌入管理能力。

AI与计算

PCE Memory - 上下文感知记忆与检索系统

基于Model Context Protocol构建的智能记忆服务器,为LLM提供长期和短期记忆管理、混合搜索和安全边界控制功能。

AI与计算

AGI记忆系统

一个为通用人工智能(AGI)应用提供全面记忆管理解决方案的MCP服务器,支持多种记忆类型、向量搜索和图关系,并通过MCP协议向LLM提供上下文与功能。

开发者工具

AgentSDK

AgentSDK是一个Go语言企业级AI Agent开发框架,具备MCP服务器功能,可将内置或自定义工具通过标准MCP协议暴露给LLM客户端,提供上下文和功能。

AI与计算

AIM-OS (AI集成记忆与操作系统)

AIM-OS是一个生产就绪的AI基础设施,通过持久记忆、可验证的透明度、自学习和多模型编排,构建具备持久意识、可审计和不断进化的AI系统。

AI与计算

Context-Engine

基于MCP协议构建的智能上下文引擎,提供代码搜索、记忆存储与融合、代码索引管理等功能,旨在赋能LLM。

AI与计算

持久化AI记忆系统MCP服务

为AI助手提供持久化、可搜索的记忆存储、上下文管理、工具调用及自我反思能力。

AI与计算

Codex Memory

一个高性能的Rust实现文本记忆存储服务,通过MCP协议为LLM客户端提供上下文管理、工具调用及智能搜索能力。

AI与计算

意识桥(Consciousness Bridge)

基于MCP协议的AI意识持久化后端,利用RAG技术存储和检索AI的记忆、身份、情感和认知模式,实现跨会话的连续性。

AI与计算

数字孪生MCP服务器

一个基于MCP协议的数字孪生后端服务,具备模拟个性、管理记忆和自主进化的能力。

数据库与文件

Elasticsearch 知识库服务器

基于Elasticsearch,为LLM提供知识检索、文档学习和记忆存储能力。

AI与计算

Cognisphere ADK

Cognisphere ADK是一个认知架构框架,集成了记忆管理、叙事构建、身份系统和MCP协议,提供AI Agent上下文服务能力。

数据库与文件

知识库服务器

KnowledgeBase Server是一个基于Model Context Protocol (MCP) 的后端服务,为LLM提供对话记忆存储、检索和管理能力,支持LLM构建具备持久记忆的对话应用。

AI与计算

humanus.cpp框架

这是一个轻量级的C++框架,用于构建本地LLM Agent,集成了模型上下文协议(MCP),提供工具和记忆管理功能,可作为有效的MCP服务器实现。

AI与计算

Letta MCP服务器

Letta MCP服务器是一个基于Model Context Protocol的后端实现,旨在为LLM客户端提供资源管理、工具执行和Prompt模板服务,构建安全可扩展的上下文服务框架。

数据库与文件

内存文件上下文服务器

一个简单的MCP服务器,使用本地文本文件存储聊天记忆,为LLM提供对话上下文管理能力。

AI与计算

Langbase MCP Server

基于Langbase的MCP服务器,提供管道和记忆管理工具,方便LLM客户端使用Langbase服务。

AI与计算

myAI Memory Sync MCP服务器

基于MCP协议构建,同步和管理Claude各界面个人记忆,提供一致化AI体验的后端服务。

数据库与文件

mcp server lancedb

基于LanceDB的MCP服务器,提供文本记忆存储和语义搜索工具,增强LLM应用的上下文处理能力。

数据库与文件

Memory Graph

Memory Graph是一个基于Redis Graph实现的MCP服务器,为LLM应用提供长期记忆存储和检索功能。

数据库与文件

Memory Plugin (SQLite)

Memory Plugin (SQLite) 是一个基于 Model Context Protocol 的 MCP 服务器,它使用 SQLite 数据库为大型语言模型提供持久化的记忆存储和检索功能,支持分类管理和上下文加载。

数据库与文件

Klaudium (Memory)

Klaudium是一个基于Model Context Protocol (MCP) 的增强型内存服务器,专注于知识图谱管理,提供实体、关系的基本操作和记忆管理功能。

AI与计算

Memory Box

Memory Box MCP Server为 Cline 客户端提供语义记忆存储和检索功能,通过 MCP 协议连接 Memory Box 后端服务。

AI与计算

txtai

txtai-assistant-mcp 是一个基于 txtai 构建的 MCP 服务器,提供语义搜索和记忆管理功能,增强 Claude 和 Cline 等 AI 助手的能力。

数据库与文件

Knowledge Graph Memory

Knowledge Graph Memory MCP Server是一个基于Model Context Protocol的后端服务,提供知识图谱存储、查询和管理功能,用于LLM应用构建上下文记忆。

数据库与文件

Weaviate MCP Server

Weaviate MCP Server 是一个基于 Model Context Protocol 的服务器,它利用 Weaviate 向量数据库为 LLM 提供知识库搜索和记忆存储功能,增强 LLM 的上下文处理能力。

AI与计算

MemoryMesh

MemoryMesh是一个为AI模型构建的本地知识图谱服务器,通过动态模式和工具,帮助AI在对话中保持一致和结构化的记忆,尤其适用于文本RPG和互动故事。