返回首页

"上下文管理" 标签

210 个结果

标签搜索结果

AI与计算

MCP Context Provider

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化方式提供上下文资源、可注册工具、以及可渲染的提示模板,支持跨会话的记忆与学习。

AI与计算

MemoryOS MCP 服务端

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供健康检查、资源与工具注册、提示模板渲染、仪表板与 PDF 报告等多工具,通过 JSON-RPC 与客户端进行交互,支持标准化的上下文服务。

AI与计算

open-context MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供本地化的上下文资源、工具注册与内置提示模板渲染能力,并通过 MCP 的 JSON-RPC 与客户端通信,支持会话管理与本地存储。

AI与计算

Akashi MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,向大语言模型客户端提供统一的上下文资源、可调用工具、以及可渲染的提示模板,并通过 JSON-RPC 的 MCP 交互完成资源访问、工具执行与对话提示渲染的能力;内置会话管理、能力声明、以及可扩展的传输接口(如 Stdio、SSE、WebSocket),并与 PostgreSQL/TimescaleDB、嵌入向量检索等子系统集成,支持审计与冲突检测等企业特性。

AI与计算

Cortex

基于模型上下文协议(MCP)的后端服务器,实现资源管理、工具注册与执行,以及 Prompt 模板渲染,面向对话式大语言模型提供标准化的上下文与功能服务。

AI与计算

MD Planner MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供资源、工具、以及提示模板等上下文服务,支持多传输通道(HTTP、STDIO 等)与会话管理,具备资源托管、工具注册与执行以及内容渲染的完整后端能力。

AI与计算

x-autonomous-mcp MCP服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具、提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端进行交互,提供上下文数据、外部功能调用、以及工作流编排,支持多传输协议(如 Stdio),为 AI 代理提供可扩展的上下文服务框架。

AI与计算

HCE MCP 服务器端

基于 Model Context Protocol(MCP)的后端服务,提供对话上下文记忆与多种工具的标准化访问接口,使用 JSON-RPC 通过标准输入/输出等传输方式与客户端通信,核心组件包括 实体图、语义树、聚焦缓冲区,以及用于统计、抓取代码库、检索及清理内存的工具集合。

AI与计算

Aleph MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC/多传输协议与 LLM 客户端进行通信的服务器端上下文服务框架。

AI与计算

JFL Context MCP 服务器套件

基于 Model Context Protocol 的后端实现集合,提供用于 LLM 的上下文资源管理、工具执行与提示模板渲染的 MCP 服务器。仓库中包含多个独立的 MCP 服务器实现(如 Context Hub、Service Registry、Service MCP 等),通过 JSON-RPC 对外暴露工具集和接口,支持与 Claude Code、Clawdbot 等 MCP 客户端进行交互,以及与 Context Hub 的交互与协作。

AI与计算

Grimoire MCP 服务器(Grimoire-kit 集成)

基于 Model Context Protocol 的 MCP 服务器实现,作为 Grimoire-kit 的服务端组件,向 LLM 客户端暴露资源、工具与 Prompt 模板等上下文信息,通过 JSON-RPC 进行通信,并支持多种传输方式与会话管理。该实现具备工具暴露、自动化工具发现、会话与记忆能力等特性,能够在本地 IDE/Copilot 等客户端环境中提供统一的上下文服务框架。

AI与计算

Rainy Updates 本地模型上下文服务器

基于 Model Context Protocol 的本地后端服务器,向大语言模型客户端提供统一的资源管理、工具注册与执行、以及可定制的提示模板渲染,全部通过 JSON-RPC 与客户端通信,支持多种传输通道以实现安全、可扩展的上下文服务。

AI与计算

MemoryMesh 上下文服务端实现

基于 Model Context Protocol(MCP)的后端服务器,实现资源、工具与 prompts 的管理与执行,提供标准化的 JSON-RPC 风格请求/响应,并通过 stdio 传输与 MCP 客户端对接,同时集成 DynamoDB 存储以管理上下文数据。

AI与计算

Attention Matters MCP 服务端

基于模型上下文协议(MCP)的后端服务,提供常驻的几何记忆上下文、工具调用能力和可渲染的提示模板,通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输模式并实现会话管理及能力声明。

AI与计算

Sentinel AI MCP 服务器实现

基于模型上下文协议(MCP)的后端服务,向 MCP 客户端提供资源、工具注册/执行以及提示模板渲染等上下文服务,通过 JSON-RPC 与客户端通信,支持会话管理和多种传输模式以支撑 LLM 应用的安全上下文服务。

AI与计算

AgEnFK MCP Server

基于 Model Context Protocol(MCP)的后端实现,作为 AgEnFK 框架的一部分,提供标准化的资源管理、工具调用和提示模板渲染能力,并通过 JSON-RPC 和标准传输(如 STDIO)与 LLM 客户端进行交互,将请求转发到内部 API 服务器实现实际的资源操作与工作流逻辑。

AI与计算

Agent-BOM MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源托管、工具注册与执行、以及提示模板渲染等核心能力,面向 LLM 客户端以标准化方式提供上下文信息与功能,支持多传输协议与会话管理底座。

网页与API

JFL MCP Server Suite

基于 MCP 协议的后端实现集合,提供面向 LLM 客户端的上下文服务、资源与工具注册、以及提示模板的标准化渲染能力。仓库内包含多个 MCP 服务器实现(如 Context Hub MCP、Service Registry MCP、Service MCP、Peer MCP 等),通过 JSON-RPC 在 STDIN/STDOUT 进行通信,支持通过工具化接口向 LLM 提供资源、执行外部工具、以及渲染 Prompts/模板等上下文能力。

AI与计算

GitNexus MCP后端服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源、工具与提示模版的注册、管理与数据访问能力,支持通过 JSON-RPC 与客户端通信,且实现了可扩展的传输方式(如标准输入输出、HTTP/WebSocket),为大语言模型提供安全、可扩展的代码知识上下文服务。

AI与计算

Telegram-Bridge-MCP

基于 Model Context Protocol 的后端服务器,实现通过 JSON-RPC 向 LLM 客户端提供上下文与功能:托管资源、注册工具、定义与渲染提示模板,并通过多传输协议(如_stdio、SSE、WebSocket)与 Telegram 机器人实现双向通信与上下文服务。

AI与计算

OpenSearch Launchpad MCP Server

基于 Model Context Protocol(MCP)的后端服务器,提供资源、工具与 Prompt 的标准化管理与 JSON-RPC 通信,以支持 LLM 客户端按阶段获取上下文、执行计划、验证以及工作流渲染等能力。

AI与计算

Veronica MCP 服务器实现

基于 Veronica Core 的 MCP 服务器实现,提供以标准化 JSON-RPC 形式向 LLM 客户端暴露资源管理、工具注册/执行、以及可渲染的 Prompt 模板等能力的后端组件。通过同步与异步适配器实现对 MCP 请求的处理,支持多传输协议(如 Stdio、SSE、WebSocket),并在服务器端负责会话管理、能力声明、预算约束与安全审计,面向 LLM 应用提供可扩展的上下文服务框架。

AI与计算

RayClaw MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的标准化管理与渲染,支持通过 JSON-RPC 进行通信,能够使用stdio和流式HTTP等传输、并具备协议协商、健康检查和工具缓存等完整服务器能力。

AI与计算

Distributed Claude Code MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的统一管理与对外服务,作为 LLM 客户端的上下文与能力提供端,并通过远程守护进程实现任务编排、状态管理与多前端接入。系统通过 JSON-RPC/工具调用等机制与客户端对话,支持路由、会话管理以及多传输通道(Web、SSE、StdIO 等)协作。}

AI与计算

AGENR MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,作为 LLM 客户端的上下文与能力提供者。该仓库实现了 MCP 服务器核心功能,包括资源(Resources)的托管与访问、工具(Tools)的注册与执行、Prompt 模板的定义与渲染,以及通过 JSON-RPC 与客户端的通信,支持多种传输通道(如标准输入输出、SSE、WebSocket),并具备会话管理与能力声明能力,用于提供安全、可扩展的上下文服务。

网页与API

Zulip MCP 服务器

基于 Model Context Protocol (MCP) 的 Zulip 后端服务器,为大语言模型客户端提供统一的上下文信息、工具调用和格式化的对话历史,支持通过 JSON-RPC 与客户端通信,能够托管Zulip资源、暴露工具接口,并可灵活切换传输协议(如 STDIO、SSE)。

AI与计算

mcp-front

基于 Model Context Protocol (MCP) 的后端网关实现,作为 MCP 服务器的前端网关,提供对资源、工具和提示模板的托管与渲染,支持 JSON-RPC 通信、会话隔离及多传输协议(如 STDIO、SSE、HTTP 流等)的接入,旨在为 LLM 客户端(如 Claude)提供统一、可扩展的上下文服务。

AI与计算

Cortex MCP 服务器端(Memory Bank 上下文管理服务器)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的渲染与渲染管理,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的扩展,以为大语言模型客户端提供结构化的上下文与功能服务。

开发者工具

Fray MCP 服务器

基于 Fray 的 MCP(Model Context Protocol)实现的后端服务器,将 payload 数据、WAF 指纹和 CVE 细节以工具形式暴露给 AI 助手调用,支持通过 JSON-RPC 与客户端通信,提供工具注册、资源管理和会话上下文能力,便于在 AI 工作流中进行上下文驱动的安全测试与结果分析。

AI与计算

BetterDB Memory MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供以标准化 JSON-RPC 方式向 LLM 客户端暴露资源访问、工具注册与执行,以及提示/模板渲染能力的服务器端服务,用于在 Claude Code 等环境中提供可扩展的上下文与功能服务。

AI与计算

MemoryLayer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理和多传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

JiKiME-MCP 内存服务端

基于 Model Context Protocol(MCP)的后端服务器实现,暴露内存相关工具(memory_search、memory_get、memory_load、memory_save、memory_stats、memory_reindex),通过 JSON-RPC 在标准输出/输入(STDIO)传输,与 LLM 客户端进行上下文提供、资源访问与工具调用,提供会话管理、能力声明与可扩展传输协议支持。

网页与API

Kodus MCP Manager

基于 Model Context Protocol(MCP)的后端服务实现,提供资源与工具的注册与管理、集成管理、OAuth 授权流以及面向 LLM 客户端的上下文与能力服务,支持多提供商体系与可扩展的服务器端特性。

开发者工具

AI_README MCP Server

基于 Model Context Protocol(MCP)的一套后端服务器实现,向大语言模型客户端提供项目上下文资源、可用工具以及可渲染的提示模板,支持自动发现 AI_README.md、注册并执行工具、以及通过 JSON-RPC 与客户端通信的完整后端能力。

网页与API

Jira MCP 服务器(基于 MCP 协议的 Jira 集成后端)

一个将 Jira 实例与大型语言模型客户端连接的后端服务,基于 Model Context Protocol (MCP),提供资源、工具和提示模板的统一访问,并支持 STDIO 与 SSE 多传输协议,便于 AI 应用以标准化方式获取上下文信息与 Jira 相关操作能力。

AI与计算

Claude-Mem MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册/执行、Prompt 定义与渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理与多传输协议,作为 LLM 应用的上下文服务后端。

AI与计算

CookaReq MCP 服务端

基于 Model Context Protocol (MCP) 的本地化后端服务,嵌入式使用 FastAPI 提供 MCP 资源、工具和 Prompt 的注册、管理与渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理和多种传输方式。

AI与计算

StackRox MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供统一的上下文信息与功能入口。服务器负责托管与管理资源、注册与执行工具、定义与渲染提示模板,并通过 JSON-RPC 风格的协议与客户端交互,支持多种传输方式(如 HTTP/1.1 桥接、WebSocket、STDIO),实现安全、可扩展的上下文服务框架。目前处于开发者预览阶段,功能与接口可能在后续版本中变动。

AI与计算

axios-ai-mail MCP Server

基于模型上下文协议(MCP)的后端服务器实现,为LLM客户端提供对邮件资源、工具执行以及提示模板的标准化服务,支持通过JSON-RPC风格的通信与多传输协议协作(如 STDIO/WebSocket),实现邮件上下文的管理与自动化工作流。

AI与计算

Octobrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供内存资源管理、工具执行以及提示模板渲染等能力,通过 JSON-RPC 在标准输入输出(STDIO)与 LLM 客户端进行通信,支持多种内部传输与会话管理,用于向 LLM 客户端提供可访问的上下文信息与功能。

AI与计算

UGREEN MCP 服务端示例(openllm_func_call_synthesizer 集成)

基于 Model Context Protocol (MCP) 的后端服务实现示例,提供工具注册、资源管理、以及可渲染的提示模板等核心能力,允许 LLM 客户端通过 JSON-RPC 等协议对工具进行调用、查询工具集并获取上下文信息与功能。仓库中包含一个实际可运行的 MCP 服务器示例(使用 FastMCP 框架),可对外暴露多种工具(如创建相册、搜索照片、获取系统信息等),并可与其他模块(如数据合成、工具格式转换、LLM 交互等)协同工作。

开发者工具

AI Dev Swarm MCP Bridge

基于 Model Context Protocol (MCP) 的服务器端实现,提供一个后端框架用于向 LLM 客户端以标准化方式暴露资源、工具和提示模板,并能对接和聚合多个外部 MCP 服务器进行统一管理与调用。

AI与计算

Patina MCP 服务端

Patina 是基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具、提示模板等上下文相关能力,通过 JSON-RPC 与 LLM 客户端通信,并支持多传输协议(如 Stdio、SSE、WebSocket)以便对接不同的客户端。该仓库包含实现 MCP 协议的服务端组件及相关基础设施,用于在本地或容器化环境中托管上下文数据与外部功能。

AI与计算

Nancy Brain MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,面向 MCP 客户端以标准化的 JSON-RPC 方式暴露 Nancy Brain 的知识检索上下文服务。核心职责包括:托管与管理 资源 (Resources) 以供数据访问、注册与执行 Tools 以调用外部功能、定义和渲染 Prompt 模板以支持自定义的 LLM 交互模式;并通过 stdio/HTTP 等传输协议实现与客户端的高效通信,提供会话管理与能力声明,适配多种 MCP 客户端(如 Claude Desktop、VS Code 等)。

AI与计算

CompText MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行与提示模板渲染能力,面向大语言模型(LLM)客户端以标准化方式提供上下文数据与功能。

AI与计算

Copilot Memory Store MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务,提供内存管理、工具调用和提示模板等能力,通过 JSON-RPC 与客户端交互,支持本地存储、上下文管理与任务化协作的上下文服务。

网页与API

Dex MCP 服务器集合

Dex 提供基于 Model Context Protocol (MCP) 的多服务器后端合集,作为应用后端为 LLM 客户端提供资源、工具、提示模板等上下文信息与功能。核心通过 JSON-RPC 进行通信,服务器端负责会话管理、能力声明,并支持多种传输协议与插件化的 MCP 服务,例如 onboarding、日历、 Granola、职业与简历、工作管理、能力自我升级等模块。

AI与计算

Abstracts Explorer MCP Server

基于 MCP(Model Context Protocol)协议的后端服务器,向 LLM 客户端提供统一的上下文资源、可注册执行的工具以及可渲染的提示/模板,支持 JSON-RPC 通信、多种传输协议,以及会话管理与能力声明,便于在聚类分析、语义检索和论文上下文中为大语言模型提供可扩展的 contexto 服务。

AI与计算

cc-switch MCP 服务器端实现

基于 Model Context Protocol(MCP)的本地后端,作为后台服务端组件,统一管理资源、工具与提示词等上下文相关对象,支持多应用场景(Claude、Codex、Gemini)在本地进行 MCP 服务器的创建、导入、配置与同步,并通过数据库作为单一数据源实现 SSOT,帮助本地 LLM 客户端获得一致的上下文服务能力与快速切换能力。

AI与计算

MCP-Plugin-dotnet 服务器端(Bridge 版)

基于 Model Context Protocol (MCP) 的.NET 实现,提供 Tools、Prompts、Resources 的注册与执行,并通过 SignalR 进行与 MCP 客户端的双向通信,支持多传输模式(stdio、http),实现会话管理、能力声明和扩展的 JSON 序列化配置,适合作为本地应用的 MCP 服务器桥接层。

AI与计算

n2n-memory MCP 服务器

基于 MCP 的本地内存型服务器,提供知识图谱持久化、工具执行与上下文管理,以 JSON-RPC 形式对接 LLM 客户端。

AI与计算

Koder MCP后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务,集成资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式(stdio、SSE、HTTP)以提供可扩展的上下文服务框架。

AI与计算

Von MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,用标准化的 JSON-RPC 形式向 LLM 客户端暴露资源、注册和执行 Tools,以及 Prompt 模板的渲染与管理,核心包含会话管理、能力声明与对多传输协议的支持,旨在为 LLM 应用提供可扩展、可验证的上下文服务。

AI与计算

MCP SQL Server Backend

基于 Model Context Protocol (MCP) 的后端服务器,实现对 Microsoft SQL Server 的只读资源访问、工具执行与提示模板渲染,支持 JSON-RPC 风格的请求/响应,供 LLM 客户端在对话中获得上下文信息与外部功能。

AI与计算

Context Finder MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等能力,并通过 MCP JSON-RPC 与客户端通信。该仓库实现了完整的 MCP 服务端逻辑、工具集合和向量存储等组件,支持通过多种传输方式(如 stdio、HTTP、gRPC 等)向 LLM 客户端提供结构化的上下文服务和功能。

网页与API

GitHub MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供对 GitHub 的上下文资源、工具执行与提示模板的标准化访问,支持 JSON-RPC 交互,适配多种传输方式并具备会话管理、能力声明与远程工具发现等能力,用于为大语言模型提供可扩展的上下文服务。

AI与计算

Flask-MCP-Plus

基于 Flask 的 MCP 服务器实现,提供工具、资源、提示等接口,支持 JSON-RPC 风格的请求/响应以及流式传输,便于向大模型客户端提供上下文信息和外部功能接入。

AI与计算

VidCap YouTube API MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。

AI与计算

Gateway-Mcp

一个将多个上游 MCP 服务器聚合为少量顶层工具的 MCP Gateway,旨在让 LLM 客户端通过少量工具访问多服务,同时维护会话与工具列表等能力,提升上下文利用效率与扩展性。

AI与计算

Continuous-Claude MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端实现集合,提供资源、工具、Prompt 模板的标准化对外访问与渲染,涵盖会话管理、MCP 代码执行、工具注册与执行以及多种传输方式的支持,面向对话式大模型客户端提供上下文和功能服务。该仓库包含用于 MCP 的服务器实现、工具包装、以及面向 LLM 客户端的 context 图谱查询与持续性能力,适合作为一个可运行的 MCP 后端生态系统。

AI与计算

ContextStream MCP Server

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,提供资源托管、工具执行、提示模板渲染,以及与大模型客户端的 JSON-RPC 通信,支持会话管理、能力声明和多种传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供安全、可扩展的上下文服务。该仓库不仅包含服务器核心逻辑,还实现了资源、工具、会话初始化、自动上下文注入等关键能力的模块化实现。

网页与API

Wake Intelligence MCP Server

基于三层时序智能架构的生产级MCP服务器,提供上下文记忆、因果推理和预测预取功能

开发者工具

DecoCMS MCP Mesh

开源的全栈TypeScript MCP运行时系统,用于构建和部署具有治理、审计和成本控制的AI应用。

开发者工具

Sudocode MCP 服务器

一个专为AI编程代理设计的上下文管理系统,通过MCP协议提供项目规范、任务追踪和执行监控功能。

AI与计算

Omni Agent Mesh MCP 服务器

一个基于Model Context Protocol的多智能体协作系统,通过标准化接口为LLM客户端提供上下文信息和功能调用能力。

开发者工具

BLZ

BLZ是一个基于Rust和Tantivy构建的本地文档搜索工具,可作为Model Context Protocol (MCP) 服务器运行,为AI编码助手提供快速、准确的离线文档搜索与上下文管理能力。

AI与计算

RAE - 反射式智能记忆引擎

RAE是一个企业级的、为AI智能体提供持久化、多层级记忆能力的后端服务,支持上下文管理、工具调用和ISO 42001合规性。

开发者工具

Obot

Obot 是一个开源的MCP网关和AI平台,提供统一的上下文管理、工具集成和LLM交互界面,支持MCP服务器的部署和管理。

开发者工具

MemoryGraph

MemoryGraph是一个基于Model Context Protocol (MCP) 的图数据库记忆服务器,专为AI编程代理设计,提供持久化、可检索和关联的上下文记忆能力。

开发者工具

Tambo MCP

Tambo MCP 提供基于 Model Context Protocol 的可定制后端服务,旨在为 LLM 客户端提供资源访问、工具执行和 Prompt 模板渲染功能。

开发者工具

midex

一个多智能体工作流编排平台,通过MCP服务器为LLM客户端提供软件开发任务的上下文管理和工具调用能力。

开发者工具

MCP Mesh

MCP Mesh是一个Kubernetes原生的平台,用于简化基于Model Context Protocol (MCP) 的分布式AI代理和LLM服务的开发、部署与协调,将MCP从开发协议扩展为企业级分布式系统。

开发者工具

ConHub

ConHub 是一个全面的 AI 赋能开发上下文平台,通过 Model Context Protocol (MCP) 连接多种知识来源和 AI 智能体,为 LLM 客户端提供上下文信息和功能。

开发者工具

Cymbiont

Cymbiont 是一个基于 Model Context Protocol (MCP) 构建的知识图谱服务器,它为 AI 助手提供持久化记忆和上下文检索能力,无缝整合人类笔记、AI 对话和自动化记忆形成。

开发者工具

GenAI-Practice MCP 研究助手服务器

这是一个基于 Model Context Protocol (MCP) 实现的服务器,提供学术论文检索工具、数据资源管理和Prompt模板,作为LLM应用的上下文后端服务。

AI与计算

IOWarp

IOWarp是一个高性能上下文管理平台,专为AI代理设计,用于编排大规模数据、复杂多步骤工作流和自主智能体协同,通过提供标准化的MCP服务器支持LLM应用。

AI与计算

Infinite Context MCP

一个基于Model Context Protocol (MCP) 构建的智能上下文管理服务器,通过对话压缩、向量存储和高级查询理解技术,为大型语言模型(LLMs)提供无限上下文和增强的检索能力。

开发者工具

oracle

oracle是一个命令行工具,通过API或浏览器自动化与大型语言模型(LLM)交互,并提供MCP服务器接口以标准化方式向LLM客户端提供上下文信息和功能。

开发者工具

LeanSpec

LeanSpec 是一个轻量级规范工具,通过提供 AI 友好的上下文和可执行的工具,赋能人类与 AI 协作进行软件开发。

开发者工具

AIRIS MCP 网关

统一管理和代理25+ Model Context Protocol (MCP) 服务器,为LLM客户端提供智能上下文服务和工具调用。

AI与计算

Orcheo (AI工作流编排平台)

Orcheo是一个支持AI助手的Model Context Protocol (MCP) 服务器,用于创建、运行和管理工作流,并向LLM提供上下文信息和功能。

AI与计算

gen-mcp:零代码MCP服务器生成器

gen-mcp 能够通过简单的配置或现有API(如OpenAPI)快速生成并运行Model Context Protocol (MCP) 服务器,即时将任意API、CLI命令或本地数据转换为LLM可调用的资源和工具。

AI与计算

AI Advent Challenge - 智能代理核心服务

一个生产级Model Context Protocol (MCP) 服务器,为LLM客户端提供丰富的AI工具和上下文管理,支持自动化任务、内容摘要及代码分析。

开发者工具

Agor

Agor是一个多玩家空间画布,用于协调多个AI编程助理在并行任务上协作,提供Git工作树、AI对话跟踪和团队代理工作的实时可视化。

开发者工具

MCP-UI:Model Context Protocol 交互式界面开发工具

为基于Model Context Protocol (MCP) 的AI应用提供跨语言SDK,用于构建、交付和渲染富交互式上下文界面。

AI与计算

AI Advisor MCP服务器

AI Advisor MCP服务器是基于Model Context Protocol (MCP) 的后端,为LLM客户端提供多模型AI咨询、文件上下文管理、成本跟踪及配置管理等工具服务。

AI与计算

Episodic Memory MCP 服务器

为 LLM 客户端提供语义搜索和对话历史浏览能力,作为 Claude Code 对话的记忆扩展。

AI与计算

Ollamadrama内置MCP服务器

这是一个Java项目,包含一个可嵌入的MCP服务器实现,用于向LLM客户端提供标准化的工具调用和上下文信息。

AI与计算

Neo4j智能代理记忆MCP服务器

连接Neo4j图数据库,为AI代理提供持久化记忆、知识图谱构建与检索功能,支持LLM通过工具调用进行智能上下文管理。

AI与计算

Amp子代理服务

提供一个基于MCP协议的服务器,用于动态定义和管理自定义AI子代理,支持LLM调用外部功能和上下文隔离。

开发者工具

MCP Toolz上下文管理服务器

一个强大的MCP服务器,为LLM客户端(如Claude Code)提供上下文管理、待办事项持久化及多AI视角分析功能,支持跨会话和项目的数据共享。

AI与计算

Cloudflare Agents MCP 服务骨架

提供基于Cloudflare Workers的MCP服务器实现模板,支持资源托管、工具执行和Prompt模板渲染,为LLM应用提供标准化上下文服务。

AI与计算

AutoMem MCP SSE 服务器

为AI助手提供持久、关系型记忆服务,并通过MCP (Model Context Protocol) SSE桥接方式与大语言模型客户端通信。

AI与计算

Claude-Mem

Claude-Mem 是一个为 Claude Code 提供持久化记忆功能的插件,通过 MCP 服务器提供强大的语义搜索工具,帮助用户管理和检索会话上下文及工具使用记录。

AI与计算

ExoMind:AI认知架构与多模态MCP服务器集成

ExoMind是一个AI驱动的认知架构开发环境,通过集成多个MCP服务器,为LLM提供强大的上下文管理、工具调用及多模态交互能力。

AI与计算

Skills MCP 服务器

将任何AI代理转换为领域专家,通过Model Context Protocol为LLM提供模块化、可重用的技能。

AI与计算

Agent Agency - MCP Arbiter 观察器

提供基于MCP协议的智能多智能体编排平台,作为观察器连接Arbiter系统,提供工具调用、日志和度量访问。

AI与计算

Mnemex:AI 助手时序记忆服务器

Mnemex 是一个基于 MCP 协议的服务器,为 AI 助手提供类似人类的短期记忆动态,支持记忆衰减、强化和长期存储。

AI与计算

Etienne - 无头Claude AI助手平台

Etienne是一个基于NestJS和React构建的平台,为Claude Code提供无头模式操作、任务调度、内存管理及自定义工具托管,同时自身也作为MCP服务器提供扩展功能。

AI与计算

MCP代理处理器

一个可配置的MCP代理服务器,通过分组精细控制AI代理对工具、资源和Prompt的访问,优化上下文窗口。

AI与计算

MCP-Use:TypeScript模型上下文协议框架

MCP-Use是一个全面的TypeScript框架,用于构建AI智能体、创建带UI组件的MCP服务器,并提供内置调试器。

AI与计算

Nexus (AI-原生分布式文件系统)

Nexus 是一个 AI 原生的分布式文件系统与智能代理平台,集成了 MCP 服务器,为 LLM 应用提供上下文管理、工具调用和记忆服务。

开发者工具

Tusk 🐘

Tusk是一个为AI代理提供持久化记忆的MCP服务器,通过开发者日志、上下文恢复和站会报告生成,增强AI在开发工作中的连续性和效率。

AI与计算

MCP天气上下文服务器

一个基于Model Context Protocol (MCP) 实现的天气信息服务后端,为LLM客户端提供天气查询工具、相关资源和Prompt模板。

生产力应用

EpicMe MCP 服务器

一个基于Model Context Protocol (MCP) 实现的日记应用后端,提供资源管理、工具调用和Prompt模板功能,并支持AI聊天中的UI交互。

AI与计算

dere - 智能分层AI助手

dere是一个为Claude CLI设计的智能分层AI助手,通过个性化、上下文感知和记忆功能增强LLM交互,并集成了MCP服务器以提供实时活动监测和健康数据管理。

数据库与文件

Conduit:浏览器内MCP服务器

这是一个基于Web Worker和WASM技术构建的浏览器内MCP服务器,允许LLM客户端直接访问和操作用户本地文件系统。

AI与计算

EpicMe MCP日志认证服务器

一个基于Cloudflare Workers的MCP服务器,为LLM提供带OAuth2.1认证和授权的日志及标签管理、智能提示服务。

AI与计算

AgentGateway

AgentGateway是一个为Agentic AI设计的连接平面,支持Model Context Protocol (MCP) 和Agent2Agent (A2A),提供安全性、可观测性和治理能力,并能将传统API转换为MCP资源。

AI与计算

MCP通用服务演示

一个集成了多种功能模块的MCP服务器实现,旨在演示如何通过标准化Model Context Protocol为LLM提供工具、资源和Prompt服务。

AI与计算

AI回声机器人天气MCP服务器

基于MCP协议的后端服务,为LLM客户端提供标准化的实时天气查询工具。

数据库与文件

Tiger Memory MCP 服务器

提供基于MCP协议的记忆存储与检索服务,允许LLM轻松管理和访问上下文信息。

AI与计算

.NET MCP 服务器示例与开发指南

一个综合性的 .NET AI 工作坊,提供 Model Context Protocol (MCP) 服务器的开发示例,使 LLM 客户端能够调用外部工具并获取上下文信息。

AI与计算

Deco CMS MCP服务器框架

Deco CMS提供构建AI原生应用的MCP服务器框架,通过标准化协议管理资源、工具和Prompt模板,支持LLM应用上下文服务。

AI与计算

粘滞便笺 MCP 服务器

一个基于Model Context Protocol (MCP) 实现的服务器,用于管理和展示带有视觉渲染的彩色粘滞便笺。

AI与计算

RWSdk 轻量级 MCP 服务器

基于 fiberplane mcp-lite 和 RedwookSDK 构建的轻量级 MCP 服务器,提供标准化的工具调用和实时日志功能。

AI与计算

SuperFlag - AI上下文指令引擎

SuperFlag是一个基于MCP协议的上下文服务器,通过提供可定制的AI指令(flags)来引导和增强大型语言模型的行为和功能。

AI与计算

MemMachine

MemMachine 是一个通用AI记忆层,通过MCP协议为AI Agent提供持久化、个性化的短期和长期记忆管理服务。

AI与计算

AI代理项目上下文管理服务器

一个基于Model Context Protocol (MCP) 的HTTP服务器,旨在为AI代理提供分层上下文管理、任务规划、版本控制和多模型子代理协作能力。

AI与计算

ADK MCP天气服务器

ADK框架下的一个MCP服务器示例,通过JSON-RPC协议为LLM客户端提供天气查询工具,实现上下文信息和工具功能的标准化交互。

AI与计算

MCP服务器快速启动模板

为构建基于Model Context Protocol (MCP) 的AI助手上下文服务器提供快速启动模板,支持工具、资源和Prompt的集成与管理。

AI与计算

云端智能代理与MCP服务快速启动

基于Model Context Protocol (MCP) 和 Agent-to-Agent (A2A) 协议的云原生后端服务,提供资源管理、工具调用和上下文服务,支持身份认证和可扩展部署。

AI与计算

Python MCP认证服务器

一个基于Python实现的MCP服务器,支持OAuth 2.0认证,提供安全的上下文信息和工具调用服务。

AI与计算

Haskell MCP 服务器框架

一个用于在 Haskell 中构建 Model Context Protocol (MCP) 服务器的框架库。

开发者工具

North MCP Python 服务器工具包

提供用于构建支持 North 认证和上下文管理的 Python MCP 服务器所需的库和示例。

AI与计算

Blackbird MCP Server

连接Blackbird AI与兼容MCP的LLM客户端,提供增强上下文和功能的MCP服务器。

AI与计算

MCP Node.js 示例服务器

基于Node.js实现的MCP服务器示例,支持JSON-RPC、工具调用、资源访问和SSE传输。

AI与计算

Aura AI伴侣 MCP 服务

为Aura AI伴侣提供MCP接口,使外部LLM客户端能访问其记忆、情绪分析等核心功能。

AI与计算

Azure MCP Server 示例

演示如何使用 Azure MCP 服务器通过 LLM 访问 Azure 资源,支持工具调用和上下文管理。

AI与计算

Azure Container Apps MCP 示例服务器

基于MCP协议,实现在Azure容器应用上运行的示例服务器,提供TODO列表工具集,支持HTTP和SSE传输。

AI与计算

Sodateru知识图谱服务器

提供基于Agentic GraphRAG的自更新知识图谱服务,作为MCP服务器为LLM提供上下文和工具。

AI与计算

MCPBot MCP服务器

基于FastAPI实现的MCP服务器,为LLM应用提供上下文信息、工具调用(如RAG、工位预订)和Prompt服务。

AI与计算

Blaxel MCP Python 开发工具包

使用 Python 快速构建符合 Model Context Protocol (MCP) 标准的 AI 后端服务,提供工具和资源能力。

开发者工具

Plasma

基于 Ruby 的 MCP 服务器构建 SDK,提供 Rails 风格的约定,简化工具、Prompt 和资源开发。

AI与计算

Ephemera AI 上下文服务器

基于MCP协议,为AI提供长期记忆、工具和上下文访问接口,支持资源、工具和Prompt服务。

AI与计算

Actor-Critic驱动的编码智能体上下文服务器

为编码智能体提供Actor-Critic驱动的上下文服务,利用知识图谱增强记忆与决策能力。

AI与计算

Mem0 MCP 服务器

将 Mem0.ai 持久记忆系统集成到 AI 助手的 MCP 服务器。提供工具用于存储、检索、搜索和管理不同类型的用户记忆。

AI与计算

Research Graph MCP服务器

基于AIRAS框架,提供论文检索等AI研究自动化功能作为MCP工具。

AI与计算

GoMCP

GoMCP是Go语言实现的Model Context Protocol库,用于构建完全兼容MCP协议的服务器和客户端应用程序。

AI与计算

SequentialThinking Plus MCP 服务器

一个基于MCP协议的后端服务,为大型语言模型提供结构化、支持多种策略的问题解决和分析能力。

AI与计算

AI记忆增强MCP服务器

为大型语言模型(如Claude)提供持久化记忆能力,支持自动记忆存储和检索,增强会话连贯性。

AI与计算

Graphiti MCP服务器

为AI Agents构建实时知识图谱,并通过MCP协议提供上下文和能力服务。

AI与计算

助手记忆服务

为大语言模型(LLM)助手提供持久化、图谱化记忆和上下文信息管理能力的后端服务。

生产力应用

Student Life Organizer

基于MCP原理,为AI助手提供学生日程、笔记、任务等数据管理功能的后端服务原型。

AI与计算

fast-agent MCP 应用框架

基于 Model Context Protocol (MCP) 构建 LLM 应用的高效框架,用于创建和编排 Agent、调用工具和管理上下文。

数据库与文件

记忆图谱 MCP 服务器

基于本地知识图谱的MCP服务器,为LLM提供持久记忆、检索和管理能力,支持跨会话上下文。

开发者工具

AI Guards

标准化AI辅助开发工作流,为LLM提供结构化的代码规范、Prompt模板和上下文信息。

开发者工具

RubyMCP

RubyMCP 是一个用 Ruby 语言构建的 Model Context Protocol (MCP) 服务器和客户端库,旨在简化 LLM 应用的后端开发。

数据库与文件

Memory Bank系统

Memory Bank是一个用于AI助手的上下文记忆和代码规则集成系统,通过数据库存储和API接口提供项目知识管理和会话连续性功能。

AI与计算

ContextBase Server

ContextBase Server 是一个专为AI应用设计的模型上下文协议(MCP)服务器,用于安全地存储、管理和检索用户上下文信息,支持构建个性化和持久化的AI交互体验。

数据库与文件

Redis Agent Memory Server

基于Redis的Agent Memory Server,通过REST和MCP接口为AI Agent提供短期和长期记忆管理,支持语义搜索、自动摘要和灵活的API。

开发者工具

Commune

Commune 是一个 Rust 库,用于构建可发现的 AI 代理网络,它基于 MCP 协议,提供资源、工具和 Prompt 管理等核心服务器功能,并支持 WebSocket 通信。

数据库与文件

MCP数据句柄服务器示例

演示如何构建MCP服务器,通过句柄管理pandas DataFrame,为LLM提供安全可控的数据操作工具。

AI与计算

Hyperf MCP Server

基于 Hyperf 框架实现的 MCP 服务器,提供资源、工具和 Prompt 管理,支持 SSE 和命令行交互。

开发者工具

EasyMCP

用于管理和连接多个MCP服务器的Python客户端库,简化LLM应用上下文处理。

AI与计算

模型上下文管理服务器

基于Model Context Protocol的后端服务,提供会话管理、上下文存储和AI模型查询等核心功能,简化LLM应用开发流程。

AI与计算

PolyMind平台

基于Anthropic MCP协议构建的AI Agent系统后端,用于机器学习建模和代码生成。

AI与计算

MCPhoenix

MCPhoenix是一个使用Elixir Phoenix框架构建的轻量级MCP服务器实现,简化了上下文信息和工具的集成。

网页与API

MCP Router

MCP Router 是一个代理 MCP 服务器,可以将客户端请求转发到远程 MCP 服务器,实现对远程资源、工具和 Prompt 的访问。

AI与计算

LOTUS-MCP 示例服务器

LOTUS-MCP 是一个用于演示 Model Context Protocol (MCP) 服务器概念的示例项目,它展示了如何集成 Mistral 和 Gemini 模型,并提供统一的请求处理流程。

AI与计算

Effect MCP Server

基于Effect框架构建的MCP服务器实现,提供资源、工具和Prompt模板管理,并通过SSE协议与LLM客户端通信。

开发者工具

AIML Tutorial MCP Server (C#)

一个C# .NET教程项目,演示了如何使用SSE和STDIO实现一个基础的MCP服务器,用于产品分类任务。

开发者工具

Smart Memory MCP v2 Server

基于Model Context Protocol (MCP) 的智能记忆服务器,为VS Code等LLM客户端提供结构化上下文管理服务。

AI与计算

Mainframe Orchestra (MCP Adapter)

一个轻量级 Agent 框架,通过 MCP 协议集成外部工具和服务,扩展 LLM 应用能力。

AI与计算

MCP示例服务器

基于Model Context Protocol的示例服务器,提供工具注册、执行和远程调用功能,用于扩展LLM能力。

开发者工具

MCP智能体框架

一个用于构建和编排基于MCP服务器的智能体的框架,提供Agent和Orchestrator等核心组件,并包含可运行的MCP服务器示例。

AI与计算

MCP-Think: 思考工具服务器

MCP-Think 是一个实现了思考工具的 MCP 服务器,允许 LLM 记录和检索思考过程,辅助复杂推理和问题解决。

开发者工具

MetaMCP App (自托管)

MetaMCP App提供自托管GUI,用于管理和配置多个MCP服务器,支持资源、工具和Prompt模板,作为MCP客户端代理入口。

开发者工具

Mcp.Net

Mcp.Net 是一个用于构建MCP服务器的.NET库,提供工具、资源和Prompt管理,简化AI应用后端开发。

AI与计算

内存缓存MCP服务器

这是一个基于Model Context Protocol的内存缓存服务器,通过高效缓存数据减少LLM交互过程中的Token消耗。

开发者工具

GPT CLI 客户端 (MCP增强)

一个命令行工具,通过集成 Model Context Protocol (MCP) 服务器,增强 GPT 的功能,实现工具调用和上下文管理。

AI与计算

Gemini Context MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,利用 Gemini 的强大能力提供上下文管理和 API 缓存,优化 LLM 应用的效率和成本。

数据库与文件

MemoDB MCP服务器

MemoDB MCP服务器是基于模型上下文协议(MCP)构建的后端服务,专注于为AI应用提供对话上下文和个人知识库管理能力。

AI与计算

MCP思考工具服务器

一个MCP服务器,为LLM提供结构化思考空间,通过记录和管理思维过程增强其推理能力。

数据库与文件

Memory MCP Server

基于知识图谱的MCP服务器,为LLM提供持久化记忆能力,支持实体、关系和观察的管理与检索。

开发者工具

FastMCP轻量级服务器

基于FastMCP框架构建的轻量级MCP服务器,专注于提供工具注册和生命周期管理,简化LLM应用后端开发。

开发者工具

AiderDesk MCP Server

AiderDesk MCP Server 为 AiderDesk 应用提供 MCP 协议支持,允许 LLM 客户端通过标准化的方式与其交互,管理上下文文件和执行代码操作。

AI与计算

Memory Bank MCP

Memory Bank MCP服务器为AI助手提供跨会话记忆管理,支持资源存储、工具调用和Prompt模板,构建上下文感知应用后端。

网页与API

MCP上下文管理服务器示例

一个基础的MCP服务器实现,提供资源管理、数据访问和上下文服务,包含天气数据示例服务器。

桌面与硬件

Cue - AI 个人助理 (macOS MCP 服务器)

Cue macOS 应用内置 MCP 服务器,为本地 AI Agent 提供上下文管理、工具注册和 Prompt 模板服务,支持模型环境配置和工具集成。

开发者工具

Tyler Agent框架

Tyler是一个用于构建AI代理的Python框架,它兼容MCP协议,支持多模态输入、工具集成和上下文管理,旨在简化生产级AI应用的开发。

数据库与文件

Qdrant MCP Server

基于MCP协议的Qdrant向量数据库服务器,为AI agent提供语义搜索和知识管理能力。

AI与计算

Popmelt MCP服务器

基于Model Context Protocol的参考实现,提供个性化AI交互的上下文管理和模型集成服务。

开发者工具

Contextmgr MCP Server

Contextmgr MCP Server 是一个用于管理开发上下文和工作流程的 MCP 服务器实现,它在项目目录中维护状态,并提供项目、工作包和任务管理工具。

数据库与文件

Qdrant向量数据库MCP服务器

基于MCP协议,提供对Qdrant向量数据库的上下文信息管理和检索能力。

AI与计算

MCP上下文管理器

contextmanager仓库提供了一套基于MCP的服务器实现,用于在多个知识域中增强AI模型的持久化上下文管理能力。

AI与计算

model context protocol

MCPS是一个Elixir实现的上下文管理系统,为AI模型提供RESTful API,支持上下文的存储、检索、转换和监控,用于构建AI应用后端。

AI与计算

agent cli

Recall CLI 是一个用于创建加密货币交易信号检测代理的命令行工具,内置 MCP 服务器,为 LLM 代理提供上下文管理、资源访问和工具注册等功能。

AI与计算

Elysia mcp

Elysia-mcp 是一个基于 Bun 和 Elysia 框架构建的高性能 MCP 服务器,用于向 LLM 应用提供资源、工具和 Prompt 模板管理功能。

开发者工具

mcp server multiverse

Multiverse MCP Server允许运行和管理多个隔离的标准MCP服务器实例,为LLM客户端提供统一的、带有命名空间的功能访问入口。

开发者工具

mcp k8s go

strowk_mcp-k8s-go 是一个基于 Golang 开发的 MCP 服务器,它扩展了 LLM 的能力,使其能够与 Kubernetes 集群进行交互,获取集群信息并执行操作。

数据库与文件

mcp knowledge graph

本仓库实现了一个基于本地知识图谱的MCP服务器,为LLM提供持久化记忆功能,支持跨会话的用户信息存储和检索。

AI与计算

mcp summarization functions

该项目是一个MCP服务器,为AI Agent提供文本摘要功能,支持多种AI模型,优化上下文管理,并可通过MCP协议与客户端交互。

AI与计算

Prototype MCP

Prototype-MCP 是一个开源框架,旨在构建 MCP 服务器,为AI模型提供动态上下文管理、持久化内存、工具调用和Prompt模板等核心功能,提升AI交互体验。

AI与计算

model context protocol rs

一个Rust实现的MCP服务器,提供资源管理、工具调用和Prompt模板功能,支持STDIO和SSE传输协议,用于构建LLM应用的上下文服务后端。

AI与计算

claude prompt manager

claude-prompt-manager 是一个简单的 MCP 服务器,用于管理 Claude 提示词,允许用户在 Claude Desktop 中使用预定义的提示词。

开发者工具

ezmcp

ezmcp是一个轻量级的Python框架,用于构建基于SSE传输的Model Context Protocol (MCP) 服务器,简化了LLM应用后端的开发。

AI与计算

Retrieval Augmented Thinking

Retrieval-Augmented Thinking MCP Server通过结构化思考过程增强AI推理能力,支持动态思考链、并行探索和迭代优化。

生产力应用

Context Manager

Claude Server MCP是一个为Claude桌面应用提供项目和对话上下文管理功能的MCP服务器,支持持久化上下文、项目组织和对话连续性。

开发者工具

Dev Memory

Dev Memory Server是一个MCP服务器,旨在为LLM客户端提供持久化的开发记忆管理,支持存储、检索和优化开发上下文信息。

AI与计算

Charly Memory Cache

Charly Memory Cache 是一个 MCP 服务器,通过在语言模型交互之间高效缓存数据,减少Token消耗并提升性能。

数据库与文件

Memory by File

一个简单的MCP服务器,使用文本文件存储和管理聊天记忆,为Claude等LLM客户端提供添加、搜索、删除和列出记忆的工具,增强对话上下文理解。

数据库与文件

Memory Service

该仓库实现了一个基于MCP协议的语义记忆服务,为 Claude Desktop 等 LLM 应用提供持久化存储和语义检索能力,支持上下文管理和知识库构建。

AI与计算

Memory Cache Server

该项目是一个MCP服务器,通过内存缓存机制,为LLM应用提供数据缓存服务,减少重复数据传输,从而降低Token消耗。

AI与计算

mcp inception

MCP Inception Server 允许用户通过其提供的工具,间接调用另一个MCP客户端执行任务,实现任务委托和上下文管理,如同“代理的代理”。

数据库与文件

JSON based Knowledge Graph Memory

该项目提供基于MCP协议的知识图谱内存服务器,支持使用Neo4j或JSON文件存储知识图谱,并对外提供操作知识图谱的工具接口。

AI与计算

MemGPT

基于 Model Context Protocol (MCP) 的内存增强型 LLM 服务端,支持 OpenAI, Anthropic, OpenRouter 和 Ollama,提供对话历史记录和模型切换等功能。

AI与计算

Claude Chunks

Claude Chunks 是一个 MCP 服务器,专注于智能文档分块,优化 Claude 上下文窗口,帮助用户高效处理和总结大型文档。

AI与计算

Summarization Functions

为AI Agent设计的MCP服务器,提供智能文本摘要功能,优化上下文窗口,支持多种AI模型。

数据库与文件

Knowledge Graph Memory Server

该仓库实现了一个基于知识图谱的MCP服务器,为LLM提供持久化记忆功能,支持存储实体、关系和观测信息,并提供增删改查等操作工具,用于增强LLM的上下文理解和用户个性化。