返回首页

"内存管理" 标签

26 个结果

标签搜索结果

AI与计算

Sequential Thinking MCP v2 服务器实现

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供会话管理、内存/思想(memory/thought)存储、分支与决策等资源与工具接口,并通过 JSON-RPC 进行通信,支持会话持久化、内存管理与多种交互场景,供 LLM 客户端调用外部功能与获取上下文数据。

AI与计算

lude-mcp

基于 Model Context Protocol (MCP) 的自托管后端服务器,提供资源读取、工具执行、提示模板渲染等功能,并通过标准的 JSON-RPC(stdio)与客户端通信,附带本地内存浏览器界面。

AI与计算

Memory Crystal MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC/多传输协议与客户端进行上下文服务交互。适用于给大型语言模型(LLM)提供可标准化的内存与外部功能支撑。

AI与计算

Structured Memory Engine MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端提供资源、工具和提示模板等统一的上下文服务,支持 JSON-RPC 通信、会话管理与能力声明,并可通过多传输协议(如 Stdio/ SSE/ WebSocket)与客户端进行安全、可扩展的交互。该仓库实现了完整的 MCP 服务器端逻辑,注册工具、管理资源、定义并渲染提示模板,面向本地离线环境的上下文服务应用。

AI与计算

Chronicle Memory MCP 服务器

基于 MCP 协议实现的本地内存管理服务器,用于存储、检索和管理长期记忆,供 LLM 客户端通过 JSON-RPC 调用访问和扩展上下文信息。

AI与计算

Chronicle Memory MCP Server

基于 MCP(Model Context Protocol)的内存管理服务器,实现对 Falcon AI Agent 的记忆资源的持久化管理、工具注册与执行、以及简易的上下文服务能力,通过 JSON-RPC 与客户端进行通信。

AI与计算

Memory Crystal MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供标准化的资源管理、工具调用和提示渲染能力,使用 JSON-RPC/SSE 或 STDIO 等传输方式与客户端通信,并与 Convex、Obsidian、Notion 等组件进行集成,面向为大型语言模型提供上下文数据与能力的后端服务。

AI与计算

clude-mcp

基于 Model Context Protocol (MCP) 的自托管后端服务器实现,提供资源、工具、提示等标准化接口,并通过 JSON-RPC(stdin/stdout)与 LLM 客户端交互,支持内存存储与检索、知识图谱链接、提示渲染,以及本地内存浏览器等扩展功能。

AI与计算

MemoryClaw MCP 服务器

基于 MCP 的后端服务器,实现对内存资源的管理、工具执行与提示渲染等能力,面向大语言模型客户端提供标准化的上下文服务,支持多用户隔离、混合向量与关键字检索,以及本地存储与嵌入缓存。

AI与计算

Agent Memory MCP 服务端

基于 MCP(Model Context Protocol)的服务器端实现,提供内存资源、工具、提示模板的注册与管理,并通过标准化的 JSON-RPC 交互向多代理 AI 客户端提供上下文与功能服务。

AI与计算

AgentMemory MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具和提示模板的注册、执行与渲染,并通过 JSON-RPC 风格的 MCP 端点与客户端交互,支持嵌入式与独立两种运行模式。该仓库提供完整的 MCP 服务端实现、工具/资源/提示的暴露以及相应的 REST/MCP 接口,便于与 Claude、Cursor、Windsurf 等 MCP 客户端对接。

AI与计算

Boucle Broca MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,暴露 Boucle 框架中的 Broca 存储和工具执行能力,支持标准 JSON-RPC 通信,当前实现以 stdio 传输为主,便于与 Claude/其他 MCP 客户端进行多智能体协作与上下文共享。

AI与计算

Lore MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器实现,提供统一的资源管理、工具执行与提示模板渲染能力,支持多租户、TTL、嵌入向量等特性,并通过标准化的接口(如 stdio 传输)与 LLM 客户端通信。

AI与计算

Aiana Claude Code MCP 服务器

基于 MCP(Model Context Protocol)协议的后端服务器实现,向 Claude Code 提供内存管理、语义检索、会话工具等能力,通过 JSON-RPC 形式与客户端通信,支持多后端存储与上下文注入等扩展功能。

AI与计算

MeMesh

基于 Model Context Protocol (MCP) 的后端服务器(MeMesh,原 Claude Code Buddy),为大语言模型客户端提供记忆化上下文、资源管理、工具执行与可定制的 Prompt 模板渲染,支持 JSON-RPC 通信、会话管理以及多传输协议(如 Stdio、SSE、WebSocket)。

AI与计算

Octobrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供内存资源管理、工具执行以及提示模板渲染等能力,通过 JSON-RPC 在标准输入输出(STDIO)与 LLM 客户端进行通信,支持多种内部传输与会话管理,用于向 LLM 客户端提供可访问的上下文信息与功能。

AI与计算

LightMem MCP 服务器

LightMem 的 MCP 服务端实现,使用 Model Context Protocol 提供资源、工具与提示模板的注册与执行,以 JSON-RPC 形式与 LLM 客户端交互。

开发者工具

Artemis City MCP 后端

基于 Model Context Protocol (MCP) 的后端服务,实现对 Obsidian 记忆库的读写、资源管理与工具执行的统一接口,提供 JSON-RPC 风格的请求/响应,包含认证、日志、路由与可扩展的插件架构,支持与多种前端/LLM 客户端协作。

AI与计算

Claude Copilot MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务器集合,提供内存管理、语义检索、知识扩展与技能加载等能力,面向 Claude Copilot 等 LLM 客户端,通过标准化的 JSON-RPC 交互向客户端提供资源、工具、提示等上下文与功能服务。

AI与计算

OpenMemory MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。

AI与计算

Cortex Memory MCP Server

基于模型上下文协议(MCP)的服务器实现,提供内存管理、工具注册/执行和提示模板的后端服务,通过 JSON-RPC 与 LLM 客户端进行通信,支持与各种后端组件协同工作,便于在代理代理的对话系统中提供上下文性与功能性支持。

数据库与文件

Survey-ZI-UIN-New AI集成应用

Survey-ZI-UIN-New 是一个集成了文件系统和内存MCP服务器的全栈Web应用,为AI应用提供上下文服务。

桌面与硬件

Memory Usage Dashboard

Memory Usage Dashboard 是一个基于 Electron 构建的桌面应用,它实现了 MCP 服务器规范,提供本地内存数据存储、检索和管理的上下文服务。

开发者工具

copilotkit mem mcp exp

该项目是一个实验性的MCP服务器,集成了内存和Brave搜索工具,旨在通过Model Context Protocol增强AI IDE的上下文感知能力。

数据库与文件

Optimized Memory

基于Model Context Protocol (MCP) 构建的知识图谱内存服务器,使用SQLite数据库持久化存储实体和关系,为LLM应用提供结构化知识记忆和检索能力。

开发者工具

Figma MCP Server with Chunking

此MCP服务器为LLM应用提供访问Figma设计文件的能力,支持大文件分块和分页加载,优化内存使用。