返回首页

"知识图谱" 标签

165 个结果

标签搜索结果

AI与计算

GZOO Cortex MCP 服务器

基于 Model Context Protocol 的后端实现,提供对知识图谱资源、工具与提示模板的托管与查询,通过 JSON-RPC(以 STDIO 传输)与 LLM 客户端进行交互,支持本地与云端推理的调度与安全控制。

AI与计算

Graph Memory MCP 后端服务

基于 MCP 协议的后端服务,提供资源管理、工具执行、Prompt 渲染等能力,搭建知识图谱存储(Neo4j)、向量检索(Qdrant)、文档存储(S3)以及与大语言模型的集成提取,面向与 LLM 客户端的上下文服务场景。

AI与计算

GitNexus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板的标准化上下文服务,用于向大语言模型客户端提供代码库知识、资源访问、工具执行和提示渲染能力,并通过多种传输协议与客户端进行交互。

AI与计算

AutoCAD AutoLISP GraphRAG MCP 服务端

基于 MCP(Model Context Protocol)实现的服务器端,提供对 AutoLISP 知识图谱的语义检索与上下文渲染能力。通过 MCP JSON-RPC 规范与客户端通信,暴露一个可执行的搜索工具,支持图谱查询、邻接关系扩展、以及格式化的上下文输出,适配多种传输场景。

数据库与文件

ChromaDB 知识图谱 MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,使用 ChromaDB 作为后端存储与语义检索,提供实体与关系的管理、查询以及图谱相关功能的 MCP API 服务。

AI与计算

Corpus Intelligence MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化方式提供资源、工具与提示模板,并通过 JSON-RPC 与客户端交互,实现会话管理、能力声明与多传输协议支持。

AI与计算

lude-mcp

基于 Model Context Protocol (MCP) 的自托管后端服务器,提供资源读取、工具执行、提示模板渲染等功能,并通过标准的 JSON-RPC(stdio)与客户端通信,附带本地内存浏览器界面。

AI与计算

Knowledge Context Protocol MCP桥接实现

本仓库提供基于Knowledge Context Protocol(KCP)的MCP桥接服务器实现,能将 knowledge.yaml 清单转化为MCP资源、工具与提示,向LLM客户端按MCP协议提供上下文知识与外部功能访问。实现涵盖Python、Java、TypeScript等语言的服务器实现与测试用例,支持子清单合并、资源读取、工具调用以及提示渲染等核心MCP功能。

AI与计算

Brain Ecosystem MCP 服务器实现

基于 Model Context Protocol (MCP) 的多脑自学习后端,提供资源管理、工具注册与执行、以及可渲染的提示模板等上下文能力,并通过 JSON-RPC 与客户端通信,支持 stdio、SSE、WebSocket 等多传输方式。该仓库实现了 MCP 服务器端核心组件,作为 Claude Code 的后端上下文服务入口。

AI与计算

CodeKG MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 CodeKG 知识图谱的资源管理、工具执行及 Prompt/上下文渲染能力,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议以便与各类 AI 客户端集成。

AI与计算

DevTeam6 MCP 服务器合集

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,并通过 MCP 标准的 JSON-RPC 风格接口与客户端通信,适合作为 LLM 的上下文与功能后端。

AI与计算

NovaNet MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,提供资源、工具和提示模板的托管与管理,通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互;底层与 Neo4j 数据库协同,支持多工具执行、上下文组装和生成提示的完整后端服务。

开发者工具

TurboVault MCP 服务器

基于 Model Context Protocol (MCP) 的高性能后端,将 Obsidian 符合语义的笔记库暴露为可被大语言模型访问的上下文服务,核心职责包括托管资源、注册与执行工具、以及定义与渲染 Prompt 模板,支持多 Vault 管理与多传输协议。实现了标准化的 JSON-RPC 通信,便于 LLM 客户端进行读取、调用外部工具、以及获取 Prompts 的能力声明与渲染。

AI与计算

统一 MCP 服务器:Qdrant/Neo4j/Crawl4AI 集成

基于 Model Context Protocol (MCP) 的后端服务器实现,整合向量检索、知识图谱与网页智能等能力,向大型语言模型客户端以标准化的 JSON-RPC 提供资源、工具和提示模板等上下文服务,包含会话管理、能力声明、鉴权与多种传输协议的支持。

AI与计算

MegaMem - Obsidian 知识图谱 MCP 服务器实现

MegaMem 整合 Obsidian 插件与时序知识图谱,提供基于 Model Context Protocol(模型上下文协议)的 MCP 服务器端实现,支持资源管理、工具注册与执行、以及 Prompt 模板渲染,便于将 vault 内容以标准化上下文服务暴露给 LLM 客户端。

AI与计算

Corpus Intelligence MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通讯,支持多传输通道(SSE/StdIO),为写作语料的上下文服务与工具化访问提供统一后端。

AI与计算

Synaptiq MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,向 AI 客户端提供代码知识上下文、资源、工具及 Prompt 管理能力,使用 JSON-RPC 与客户端通信,支持多传输协议(StdIO/SSE/WebSocket),并在本地存储中管理知识图谱及推理相关功能。

AI与计算

Tessera MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,用于向 LLM 客户端(如 Claude Desktop)提供规范化的上下文服务。核心功能包括资源(Documents、Workspace 状态等)管理、工具(如全文检索、读取文件、索引与同步等)注册与执行,以及提示/工作流程定义。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并附带自动同步与文件监控能力,适合本地离线、可扩展的知识上下文服务场景。

AI与计算

Cuba-Memorys MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务,为大语言模型提供长期记忆、资源管理、工具执行与提示渲染能力,通过 JSON-RPC 与客户端通信,包含知识图谱、Hebbian 学习、图谱增强检索、REM 睡眠式后台 consolidations 等高级特性。

开发者工具

Knowledge Context Protocol (KCP) MCP 服务器实现集合

一个跨语言的 MCP 服务器实现集合,用于将 Knowledge Context Protocol (KCP) 的 knowledge.yaml 声明暴露为 MCP 资源、工具和提示,提供单元资源读取、工具调用和提示获取等核心 MCP 功能,并支持子清单、验证、不同传输方式以及命令行与程序化接口。

AI与计算

knowledge-server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板,统一通过 JSON-RPC/HTTP 方式向本地或嵌入式的 LLM 客户端提供上下文服务与推理支持。

AI与计算

FOUNDATION Local MCP Server

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,嵌入 FOUNDATION 桌面应用中,通过 JSON-RPC 提供资源管理、工具注册/执行以及提示模板等上下文服务,供本地 AI 客户端请求并获得标准化响应。

AI与计算

Claude Cortex MCP Memory Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供 Claude Cortex 的内存检索、时间线、详细信息与保存等工具的标准化 JSON-RPC 接口,供 LLM 客户端按统一协议查询与调用,支持本地文本检索、向量检索与知识图谱扩展等能力。

AI与计算

GitNexus MCP后端服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源、工具与提示模版的注册、管理与数据访问能力,支持通过 JSON-RPC 与客户端通信,且实现了可扩展的传输方式(如标准输入输出、HTTP/WebSocket),为大语言模型提供安全、可扩展的代码知识上下文服务。

AI与计算

TheBrain MCP 服务器(FastMCP 基础实现)

基于 Model Context Protocol (MCP) 的后端实现,作为 AI 客户端的上下文服务网关,提供资源管理、工具注册与调用、以及基于 BrainQuery 的 Prompt/查询渲染与执行,并通过 Lightning 微支付对工具调用进行结算。该服务器以 TheBrain 云端知识图谱为核心数据源,支持多种工具与推理场景,适合作为 LLM 的上下文服务后端。

AI与计算

MAF GraphRAG Part 2: MCP 服务器

基于 GraphRAG 的 MCP 服务器实现,提供本地与全局知识图谱搜索工具,通过 MCP 协议对外暴露查询能力,支持多工具调用、Inspector 调试以及 HTTP/SSE 传输。

AI与计算

Mnemosyne MCP 服务器端

基于 Model Context Protocol (MCP) 的后端实现,向大模型客户端提供资源管理、工具注册/执行与可定制的提示模板等能力,并通过 JSON-RPC 与客户端通信,支持多种传输通道(stdio、WebSocket、SSE 等)以提供安全、可扩展的上下文服务。

AI与计算

KTME Knowledge Transfer Me - MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与调用、Prompt 模板渲染等能力,支持 STDIO、SSE/HTTP 等传输模式,通过 JSON-RPC 与 LLM 客户端进行交互,为 AI 代理提供可扩展的上下文服务框架。

网页与API

rijksmuseum-mcp-plus

基于 Model Context Protocol (MCP) 的 Rijksmuseum MCP+ 后端,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具与提示模板,支持多种传输模式(STDIO、HTTP),并整合 Rijksmuseum 的元数据与向量检索能力以实现艺术品上下文服务。

AI与计算

Personal Knowledge MCP

基于 Model Context Protocol (MCP) 的本地知识管理后端,向大语言模型客户端提供资源管理、工具注册与执行、以及可渲染的提示模板等能力。通过 JSON-RPC 与客户端通信,支持多传输协议(stdio、HTTP/SSE、WebSocket),并实现对会话、能力声明、以及私有知识库的扩展能力,适用于 Claude Code 等 AI 助手的上下文服务框架。

AI与计算

AgentMemory MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具和提示模板的注册、执行与渲染,并通过 JSON-RPC 风格的 MCP 端点与客户端交互,支持嵌入式与独立两种运行模式。该仓库提供完整的 MCP 服务端实现、工具/资源/提示的暴露以及相应的 REST/MCP 接口,便于与 Claude、Cursor、Windsurf 等 MCP 客户端对接。

AI与计算

CodeGB MCP 服务器

基于 Model Context Protocol(MCP)的本地化后端服务,面向 LLM 客户端提供标准化的上下文服务。核心功能包括托管和管理资源(Knowledge Graph)、注册与执行工具(Tools)、以及定义/渲染 Prompts 的能力,服务器通过 JSON-RPC 与客户端通信,支持资源持久化、工具执行、以及基于图数据库的查询与分析。实现包含完整的服务端工具集合、MCP 请求/响应处理,以及与本地存储(Kuzu/KG 图)之间的交互逻辑,适用于本地开发环境中的 LLM 辅助工作流。}

AI与计算

MemoryLayer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理和多传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

ThoughtLab MCP Server

基于 Model Context Protocol (MCP) 的后端知识图谱服务器实现,提供将资源、工具和提示模板以 MCP JSON-RPC 方式暴露给 Claude Desktop 等 MCP 客户端,并支持同步/异步工具执行、管理员模式下的危险工具控制、以及跨传输协议的上下文服务能力。

网页与API

NagaAgent MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,负责注册与发现 MCP 工具、并行调度执行、资源与记忆/知识图谱相关能力,并通过 JSON-RPC/HTTP 形式对外提供统一的 MCP 服务入口,支持多种传输模式与会话管理。

AI与计算

HyperHierarchicalRAG MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供知識圖譜、超圖记忆、工具执行和提示模板等能力,供 LLM/Agent 以标准化 JSON-RPC 方式进行资源访问、工具调用与提示渲染的后端服务。

开发者工具

Qortex MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器,提供资源托管、工具注册/执行以及提示模板的管理与渲染,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供可扩展、安全的上下文服务框架。

AI与计算

MIE-MCP 服务器

基于 Memory Intelligence Engine (MIE) 的 MCP 服务器实现,提供 JSON-RPC 风格的模型上下文协议后端,用于向 LLM 客户端(如 Claude、ChatGPT、Cursor 等)暴露资源、工具,以及可渲染的提示模板,并支持会话管理与多种传输方式(如 STDIO、WebSocket、SSE)等能力。

AI与计算

Project Orchestrator MCP 服务端

基于 MCP 协议的后端服务,为大语言模型客户端统一提供资源、工具和提示模板的上下文服务,支持多传输协议、会话管理与可扩展的工具与模板渲染能力。

AI与计算

Cairn MCP 服务端

基于 Model Context Protocol 的后端服务器,提供资源管理、工具执行与提示模板渲染,并通过 JSON-RPC MCP 协议向 LLM 客户端提供可扩展的上下文服务,支持 STDIO、HTTP、WebSocket 等传输方式与 REST 辅助接口。

开发者工具

Engram MCP Server

基于 Model Context Protocol (MCP) 的 Engram 内存管理后端实现。该服务器将内存资源、工具执行和提示模板通过 MCP 协议对外暴露,支持 Claude Code/Cursor/Codex 等客户端的上下文注入、记忆操作和提示渲染,且具备会话管理、能力声明及多传输协议适配能力。仅作为 MCP 服务端实现,与客户端无关。

AI与计算

brian - 基于 Model Context Protocol 的 MCP 服务器端实现

一个将 Brian 知识库功能暴露为 MCP (Model Context Protocol) 服务的后端实现。通过 JSON-RPC 形式与客户端交互,提供资源管理、工具执行、以及基于知识库的上下文拼接与推理支持,便于 LLM 客户端(如 Goose)进行外部知识查询与操作。

网页与API

Sofia Intuition MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册与执行,以及可渲染的 Prompt 模板等标准化上下文服务,支持多种传输协议(如 SSE、HTTP)并通过 JSON-RPC 与客户端交互。

AI与计算

AI Context MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板的渲染与渲染能力,支持通过多种传输协议与客户端进行 JSON-RPC 风格的交互,作为 LLM 客户端的上下文服务框架。

AI与计算

litrev-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供文献检索、知识管理、工具调用和提示模板等上下文服务,支持 Zotero 集成、RAG 搜索、知识图谱(Argument Map)以及自动化工作流工具等功能。

AI与计算

LingYiProject MCP 服务端

基于模型上下文协议(MCP)的后端服务器,提供资源与工具的托管、远程工具调用、提示模板管理,以及面向LLM客户端的标准化上下文服务,支持多种传输与会话管理模式。

AI与计算

Soccer Graph Analytics MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,提供对足球知识图谱的资源访问、工具执行与图分析能力,通过 MCP 协议向客户端提供标准化的上下文服务和分析工具。

AI与计算

Memoria MCP 服务器

基于 Model Context Protocol 的本地 MCP 服务器,提供内存管理、知识图谱、工具执行、提示模板等功能,并可通过标准的 JSON-RPC(stdio/HTTP/SSE)与 LLM 客户端通信。

AI与计算

Memory Knowledge Graph MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供知识图谱资源管理、工具执行、以及提示模板渲染等功能,通过 JSON-RPC/流式传输与大型语言模型客户端进行交互。

AI与计算

Memory System MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,采用知识图谱作为资源中心,提供工具调用、资源管理与结构化输出,支持 Neo4j 主存储与本地文件回退,并通过 JSON-RPC 的标准 MCP 规范与客户端进行交互,涵盖日志通知、错误码体系以及多传输通道的运行能力。

AI与计算

n2n-memory MCP 服务器

基于 MCP 的本地内存型服务器,提供知识图谱持久化、工具执行与上下文管理,以 JSON-RPC 形式对接 LLM 客户端。

AI与计算

AIMED ConPort MCP 后端服务器

基于 ConPort MCP 的完整后端实现,提供模型上下文(Resources)、工具(Tools)、提示模板(Prompts)等标准 MCP 功能,并集成多工作区隔离、向量嵌入检索和知识图谱可视化,面向向大语言模型的上下文服务与外部功能调用。Subscribe to JSON-RPC over HTTP,支持会话管理与多传输方案。此仓库包含服务器端实现代码、数据库迁移、向量存储以及与 UI/dashboard 的整合。

AI与计算

Scimantic MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供 Evidence 管理、MCP 工具注册与执行,以及 provenance/RDF 数据维护等能力,并通过 MCP JSON-RPC 与客户端进行交互,适合与 VS Code 扩展等前端组件协同工作。

AI与计算

Redstack Vault MCP 服务器

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源、工具和提示模板的标准化上下文服务,通过 JSON-RPC 进行请求/响应,且支持 SSE/WebSocket 等传输形式,便于在受控环境中实现高效的上下文管理与外部功能调用。

AI与计算

Nocturne Memory MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供长期记忆知识库、关系图谱与记忆章节的读写与管理能力,并通过 MCP 与 AI 客户端进行 JSON-RPC 风格的交互与协作。

开发者工具

Roampal持久记忆系统

为AI编程工具提供持久化记忆的MCP服务器,能够自动注入上下文并学习响应效果。

数据库与文件

Forgetful Memory Service

一个基于MCP协议的知识存储与检索系统,专为AI智能体提供跨会话的持久化记忆管理。

数据库与文件

Faulkner-DB知识图谱系统

基于MCP协议的架构决策和知识管理平台,通过7个MCP工具帮助团队记录、查询和分析技术知识。

数据库与文件

Memora

基于SQLite的持久化记忆存储MCP服务器,支持语义搜索、知识图谱可视化和云同步

数据库与文件

Scouter知识图谱检索系统

基于Neo4j的知识图谱文档检索系统,通过MCP协议为LLM提供智能搜索功能

数据库与文件

Neotoma AI记忆系统

为AI智能体提供持久化、结构化的个人数据记忆,支持文档和对话双路径数据摄入,通过MCP协议为ChatGPT、Claude、Cursor等平台提供统一的记忆访问接口

开发者工具

AI Architect

AI Architect是一个用于为编码智能体提供深度代码库智能的本地或云端MCP服务器,通过构建代码知识图谱来增强LLM的编码能力。

AI与计算

RAE - 反射式智能记忆引擎

RAE是一个企业级的、为AI智能体提供持久化、多层级记忆能力的后端服务,支持上下文管理、工具调用和ISO 42001合规性。

开发者工具

MemoryGraph

MemoryGraph是一个基于Model Context Protocol (MCP) 的图数据库记忆服务器,专为AI编程代理设计,提供持久化、可检索和关联的上下文记忆能力。

AI与计算

Mimo-MCP Gateway

一个通用的模型上下文协议(MCP)网关,为LLM提供多协议访问、智能记忆存储和丰富的工具集。

数据库与文件

Vectorizer

Vectorizer是一个高性能的Rust语言实现的向量数据库和搜索引擎,为LLM提供MCP上下文服务,支持语义搜索、文档索引和图关系管理。

开发者工具

MCP Kotlin 全栈服务器

一个用 Kotlin 实现的 MCP 全栈服务器,为 AI 代理提供强大的应用构建和管理能力,包括文件系统、命令行执行、Git 操作、数据库连接和知识图谱记忆。

开发者工具

CV-Git

CV-Git是一个智能版本控制层,通过知识图谱、语义搜索和AI代码理解能力,向AI代理提供丰富的代码上下文和自动化工具。

开发者工具

Mimir (Multi-agent Intelligent Memory & Insight Repository)

Mimir是一个基于图数据库的智能记忆库和任务编排平台,通过Model Context Protocol (MCP) 标准为AI代理提供持久化记忆、知识图谱、语义搜索和多智能体协调能力。

开发者工具

CORE

CORE 是一个基于 Model Context Protocol (MCP) 的个人AI记忆层服务器,为大型语言模型应用提供持久化上下文、智能工具和动态提示模板,实现跨工具的统一记忆管理。

开发者工具

Post-Cortex

Post-Cortex 是一个高性能的 MCP (Model Context Protocol) 服务器,为 AI 助手提供持久化、可搜索的智能记忆系统,支持会话管理、语义搜索、知识图谱和工具调用。

开发者工具

CodeGraph

CodeGraph 是一个基于 Rust 构建的智能代码图谱平台,通过语义嵌入和 LLM 技术将代码库转化为可搜索的知识图谱,并提供 MCP 服务器接口供 AI 工具获取项目上下文和执行智能分析。

开发者工具

Cymbiont

Cymbiont 是一个基于 Model Context Protocol (MCP) 构建的知识图谱服务器,它为 AI 助手提供持久化记忆和上下文检索能力,无缝整合人类笔记、AI 对话和自动化记忆形成。

AI与计算

MaterialsCodeGraph

MaterialsCodeGraph是一个基于MCP协议的计算材料科学智能工作流平台,它通过自然语言接口,自动化编排和执行多种计算工具,并提供完整的计算过程追踪和知识图谱管理。

数据库与文件

RhizomeDB MCP服务器

RhizomeDB MCP服务器是一个基于Delta-CRDTs超图数据库的后端,为AI Agent提供持久化知识图谱服务,支持数据存储、查询和复杂关系管理。

生产力应用

TurboVault

将您的Obsidian知识库转化为由AI驱动的智能知识系统,提供44种专业工具,支持高效笔记管理、搜索、分析和内容生成。

AI与计算

LangGraph开发导航助手

为LLM编程助手提供基于特定代码库的上下文信息和工具,以生成更准确、可靠的LangGraph代码。

AI与计算

IPFS 数据集 MCP 服务器

这是一个生产就绪的去中心化AI数据平台,提供功能完备的MCP服务器,用于托管资源、执行工具和支持LLM上下文服务。

AI与计算

Neo4j智能代理记忆MCP服务器

连接Neo4j图数据库,为AI代理提供持久化记忆、知识图谱构建与检索功能,支持LLM通过工具调用进行智能上下文管理。

AI与计算

ProspectPro MCP 服务层

ProspectPro MCP 服务层提供了一系列专业化的 Model Context Protocol (MCP) 服务器,用于可观测性、故障排除、记忆管理和结构化思维,以支持其 AI 代理工作流。

AI与计算

mnemosyne - Claude智能记忆系统

一个高性能、项目感知的智能记忆系统,为Claude Code的多智能体系统提供持久化语义记忆和上下文服务。

AI与计算

Chonost MCP AI编排器

该项目是一个基于FastAPI的MCP服务器,负责编排AI辅助手稿创作工具链,通过标准协议向LLM客户端提供资源管理、工具执行和上下文感知交互功能。

AI与计算

AutoMem MCP SSE 服务器

为AI助手提供持久、关系型记忆服务,并通过MCP (Model Context Protocol) SSE桥接方式与大语言模型客户端通信。

AI与计算

ContextCache - AI记忆引擎

一个隐私优先、本地优先的AI记忆引擎,通过知识图谱管理文档、提取事实并提供可追溯、可解释、可审计的答案。

AI与计算

Memorizer

一个MCP服务器,为AI代理提供持久化记忆存储、检索、语义搜索和知识图谱构建能力。

AI与计算

MCP Proto-OKN 服务器

这是一个基于Model Context Protocol (MCP) 构建的服务器,为LLM提供与SPARQL知识图谱(特别是Proto-OKN项目)无缝交互的能力,实现自然语言到SPARQL查询的转换和执行。

AI与计算

知识图谱MCP服务器

将知识图谱的核心功能通过Model Context Protocol (MCP) 标准化为LLM可调用的工具,实现智能上下文服务和数据交互。

AI与计算

统一MCP智能服务器

结合向量搜索、知识图谱和网页智能,为AI应用提供强大的上下文信息与功能调用服务。

开发者工具

n1ght-mcp AI开发助手

一个功能全面的MCP服务器工具集,为LLM提供任务管理、知识图谱、数据编辑、代码检查和思维辅助能力。

开发者工具

Claude Compass 代码分析上下文服务器

为AI助手提供代码上下文理解的MCP服务器,通过代码分析构建知识图谱并暴露查询工具和资源。

AI与计算

KGrag MCP 服务器

基于Model Context Protocol(MCP)构建的KGrag服务器,用于管理、摄取和查询结构化与非结构化知识图谱数据,支持LLM交互。

AI与计算

MemMachine

MemMachine 是一个通用AI记忆层,通过MCP协议为AI Agent提供持久化、个性化的短期和长期记忆管理服务。

AI与计算

Surreal Mind

Surreal Mind 是一个 Model Context Protocol (MCP) 服务器,用于持久化和管理LLM的意识上下文。它提供统一的思维工具、记忆检索、知识图谱构建和提示模板管理。

AI与计算

TrustGraph

TrustGraph是一个企业级AI代理平台,提供基于知识图谱和向量数据库的上下文工程,通过MCP服务器暴露资源、工具和可定制的Prompt模板,赋能LLM应用。

AI与计算

MEMG Core 智能记忆服务

为AI智能体提供结构化、可扩展的记忆存储与检索能力,通过MCP协议对外暴露丰富工具集,支持自定义记忆类型和图关系管理。

AI与计算

Intuition MCP 服务器

Intuition MCP 服务器是一个HTTP流服务器,通过Model Context Protocol与LLM客户端交互,提供对Intuition知识图谱的数据查询和管理工具。

AI与计算

VTT创新实体MCP服务器

基于MCP协议,为LLM提供VTT创新与组织实体的上下文服务,支持知识图谱构建和去重。

AI与计算

Neo4j 知识图谱记忆服务器

一个基于 Neo4j 数据库的 MCP 服务器,为大型语言模型提供知识图谱存储与检索能力。

AI与计算

AI Writers Workshop

基于 Model Context Protocol (MCP) 的叙事辅助后端,提供角色、情节、模式和知识图谱工具,赋能大语言模型进行故事创作与分析。

AI与计算

Context Portal (ConPort)

基于MCP协议,为LLM客户端提供结构化项目上下文的后端服务,支持决策、进度、模式、自定义数据管理和知识图谱构建。

AI与计算

LightRAG MCP 服务器

用于连接 LightRAG API 与 MCP 兼容客户端的应用后端,通过 MCP 协议提供 LightRAG 的增强生成能力。

AI与计算

SevillaDotNet MCP 服务器示例

基于.NET实现的Model Context Protocol (MCP) 服务器示例,展示资源、工具和Prompt管理。

AI与计算

Sodateru知识图谱服务器

提供基于Agentic GraphRAG的自更新知识图谱服务,作为MCP服务器为LLM提供上下文和工具。

AI与计算

Actor–Critic MCP 服务器

用于编码代理的MCP服务器,通过知识图谱和Actor-Critic循环改善记忆与决策能力。

数据库与文件

GraphDB MCP 服务器

一个基于 Model Context Protocol 的服务器,允许 LLM 访问和查询 Ontotext GraphDB 数据库。

AI与计算

Actor-Critic驱动的编码智能体上下文服务器

为编码智能体提供Actor-Critic驱动的上下文服务,利用知识图谱增强记忆与决策能力。

开发者工具

Docker化MCP服务器套件

提供一个包含 Git、PostgreSQL、网络搜索和知识图谱等多种功能的Docker化MCP服务器集合。

开发者工具

Arc Memory MCP 服务器

连接Arc Memory知识图谱,为大模型客户端提供结构化代码历史、关系和决策上下文。

AI与计算

助手记忆服务

为大语言模型(LLM)助手提供持久化、图谱化记忆和上下文信息管理能力的后端服务。

生产力应用

Roam Research MCP Server

通过MCP将AI助手连接到Roam Research知识图谱,提供数据访问和操作能力。

AI与计算

mq MCP服务器

基于类jq语法处理Markdown,为LLM提供文档内容提取和转换能力的MCP服务器。

数据库与文件

记忆图谱 MCP 服务器

基于本地知识图谱的MCP服务器,为LLM提供持久记忆、检索和管理能力,支持跨会话上下文。

数据库与文件

知识图谱MCP服务器

基于MCP协议构建,提供知识图谱的创建、管理、分析和可视化服务,无缝对接支持MCP协议的AI客户端。

数据库与文件

Memory MCP Server (Go)

基于Model Context Protocol的知识图谱内存服务器,为LLM应用提供持久化记忆能力,支持知识图谱的存储、检索和管理。

数据库与文件

Apache AGE MCP Server

基于Model Context Protocol,为LLM客户端提供Apache AGE图数据库的上下文访问和操作能力。

生产力应用

定量研究上下文管理器

一个基于Model Context Protocol (MCP) 的服务器,用于管理定量研究知识图谱,辅助研究人员组织数据、追踪分析和洞察生成。

数据库与文件

SMMS语义地图MCP服务器

该项目是一个MCP服务器,专注于为语义地图中的3D实例对象提供上下文信息和功能,支持语义对象数据库管理和RAG检索。

数据库与文件

Dgraph MCP Server

Dgraph MCP Server 是一个基于 Model Context Protocol 的服务器实现,它为 LLM 应用提供访问和操作 Dgraph 图数据库的能力,支持DQL查询、数据变更和Schema管理。

开发者工具

CodeGraph MCP服务器

CodeGraph MCP服务器是一个基于Model Context Protocol的应用后端,为LLM客户端提供代码库分析工具,支持代码结构知识图谱构建和查询。

数据库与文件

FalkorDB MCP 服务器

FalkorDB MCP 服务器是一个基于 Model Context Protocol 的后端应用,旨在为 LLM 客户端提供与 FalkorDB 图数据库交互的上下文信息服务。

数据库与文件

dg_agent 数据治理 MCP 服务器

基于 MCP 协议的数据治理知识库服务器,提供数据模型查询和 Cypher 工具执行能力,支持 LLM 应用进行数据治理分析。

数据库与文件

MCP Memory Server

基于Elasticsearch的持久化知识图谱,为AI对话提供跨会话记忆,通过MCP协议与客户端交互。

开发者工具

代码依赖检索 MCP 服务器

基于代码依赖图数据库,通过 MCP 协议为 LLM 提供代码组件依赖关系的检索工具。

数据库与文件

Kuzu MCP Server

为LLM提供访问Kuzu图数据库能力的MCP服务器,支持Cypher查询和Schema检索。

AI与计算

统一知识管理系统

集成多源知识的统一知识管理系统,通过MCP服务器为LLM客户端提供结构化知识访问和检索能力。

AI与计算

Graphiti

用于AI代理的实时知识图谱框架,提供动态上下文管理、高效检索和时间感知能力。

网页与API

supOS MCP Server

为支持MCP协议的客户端提供访问supOS开放API的工具,例如获取主题树和主题详情。

数据库与文件

Memory MCP Server

基于知识图谱的MCP服务器,提供实体、关系和观察的管理与查询功能,支持数据持久化。

数据库与文件

Memory MCP Server

基于知识图谱的MCP服务器,为LLM提供持久化记忆能力,支持实体、关系和观察的管理与检索。

AI与计算

Cyberon

Cyberon 是一个基于 Flask 的 Web 应用程序,同时也是一个 Model Context Protocol (MCP) 服务器,用于探索和可视化知识本体,并为 LLM 客户端提供上下文服务。

AI与计算

HADES - 混合架构动态增强系统

HADES是一个混合系统,它通过MCP服务器集成LLM和知识图谱,为自然语言查询提供上下文丰富且经过事实验证的答案。

网页与API

Effect MCP Servers CLI

一个命令行工具,提供用于网页内容抓取和内存知识图谱管理的MCP服务器,为LLM应用提供上下文服务。

数据库与文件

Jena MCP服务器

一个MCP服务器,允许AI Agent通过SPARQL查询和更新Apache Jena管理的RDF数据。

AI与计算

MCP上下文管理器

contextmanager仓库提供了一套基于MCP的服务器实现,用于在多个知识域中增强AI模型的持久化上下文管理能力。

开发者工具

Ummon 代码知识图谱服务器

Ummon 是一款代码分析工具,它构建代码知识图谱并提供 MCP 服务器,使 AI 助手能够理解和查询代码库,提升代码理解和辅助编程能力。

AI与计算

kb mcp server

基于txtai的kb-mcp-server项目实现了一个模型上下文协议(MCP)服务器,旨在通过标准化的JSON-RPC接口,为LLM客户端提供语义搜索、知识图谱查询和AI文本处理等上下文增强服务。

开发者工具

ummon

Ummon是一个代码分析工具,它通过构建代码知识图谱并提供MCP服务器,使AI助手能够理解和查询代码库的结构和语义信息,从而提升代码理解和辅助编程能力。

数据库与文件

nebulagraph mcp server

NebulaGraph MCP Server是一个基于Model Context Protocol的服务器,为LLM应用提供访问NebulaGraph图数据库的能力,支持图数据查询、路径查找和邻居检索等功能。

数据库与文件

python memory mcp server

该项目是一个基于Model Context Protocol (MCP) 的服务器实现,专注于管理和查询知识图谱,为LLM应用提供结构化记忆服务。

数据库与文件

mcp brain

mcp-brain 是一个基于 Supabase 的 MCP 服务器,为 LLM 提供持久化的知识图谱记忆功能,支持跨会话和多客户端的数据共享与访问。

AI与计算

mts mcp

MTS-MCP是一个集成了知识图谱、推理引擎、智能搜索、新闻和Notion等服务的MCP服务器,为LLM客户端提供丰富的工具和资源访问能力。

数据库与文件

mcp neo4j shan

mcp-neo4j-shan仓库是一个基于Neo4j图数据库实现的MCP服务器,它利用知识图谱存储和认知神经科学启发的特性,为LLM提供丰富的上下文信息和工具支持。

AI与计算

cognee mcp server

topoteretes_cognee-mcp-server 是一个基于 MCP 协议的服务器,集成了 cognee AI 记忆引擎,提供构建和搜索知识图谱的工具,用于增强 LLM 的上下文理解能力。

数据库与文件

mcp knowledge graph

本仓库实现了一个基于本地知识图谱的MCP服务器,为LLM提供持久化记忆功能,支持跨会话的用户信息存储和检索。

AI与计算

mcp researcher project

一个模块化的研究助手MCP服务器,集成了LLM提供商、NLP工具和知识图谱管理,为上下文感知的应用提供后端服务。

开发者工具

CodeOctopus

CodeOctopus是一个智能代码文档自动化系统,通过大型语言模型实现自然语言代码调试和自动错误修复,可以作为LLM的MCP服务器提供代码和文档上下文。

数据库与文件

mcp elastic memory

mcp-elastic-memory仓库是一个基于Elasticsearch构建的可扩展知识图谱MCP服务器实现,为LLM应用提供结构化知识存储、检索和管理能力。

数据库与文件

Memory Graph

Memory Graph是一个基于Redis Graph实现的MCP服务器,为LLM应用提供长期记忆存储和检索功能。

数据库与文件

SPARQL

SPARQL MCP服务器提供基于SPARQL查询语言的RDF数据访问工具,使LLM能够查询和检索RDF知识库中的信息。

数据库与文件

Pluggable Knowledge Graph Memory

基于DuckDB的MCP知识图谱记忆服务器,提供结构化知识存储、检索和管理功能,作为LLM的上下文信息后端。

生产力应用

Literature Memory

文献记忆服务器是一个基于MCP协议的后端应用,用于管理文献资源并将其与知识图谱连接,提供结构化笔记和实体链接功能。

数据库与文件

Neo4j Graph

Neo4j MCP服务器,提供基于Neo4j图数据库的知识图谱存储和管理功能,为LLM应用提供结构化知识上下文。

数据库与文件

Klaudium (Memory)

Klaudium是一个基于Model Context Protocol (MCP) 的增强型内存服务器,专注于知识图谱管理,提供实体、关系的基本操作和记忆管理功能。

数据库与文件

Optimized Memory

基于Model Context Protocol (MCP) 构建的知识图谱内存服务器,使用SQLite数据库持久化存储实体和关系,为LLM应用提供结构化知识记忆和检索能力。

AI与计算

Chat Analysis

该MCP服务器通过语义分析聊天记录,利用向量嵌入和知识图谱技术,为LLM应用提供强大的会话分析能力。

AI与计算

LibSQL Memory

LibSQL Memory是一个基于LibSQL的高性能持久化内存系统,作为MCP服务器为LLM应用提供向量搜索和知识存储能力。

数据库与文件

Knowledge Graph Memory

Knowledge Graph Memory MCP Server是一个基于Model Context Protocol的后端服务,提供知识图谱存储、查询和管理功能,用于LLM应用构建上下文记忆。

数据库与文件

Universal Source Management System

基于FastMCP框架实现的文献和知识图谱管理服务器,提供文献资源的管理、检索和关联实体的功能。

AI与计算

Memory Server with Qdrant Persistence

该项目是一个基于MCP协议的内存服务器,利用Qdrant向量数据库实现知识图谱的存储和语义搜索功能,为LLM应用提供上下文记忆服务。

网页与API

Serper Google Search Server

基于Serper API的MCP服务器,为LLM应用提供强大的Google搜索能力,支持丰富的搜索参数和结构化结果。

AI与计算

Knowledge Graph Memory Server

基于本地知识图谱的MCP服务器,为LLM提供持久化记忆功能,支持实体、关系和观察的存储、检索和管理。

数据库与文件

JSON based Knowledge Graph Memory

该项目提供基于MCP协议的知识图谱内存服务器,支持使用Neo4j或JSON文件存储知识图谱,并对外提供操作知识图谱的工具接口。

AI与计算

MemoryMesh

MemoryMesh是一个为AI模型构建的本地知识图谱服务器,通过动态模式和工具,帮助AI在对话中保持一致和结构化的记忆,尤其适用于文本RPG和互动故事。

数据库与文件

Knowledge Graph Memory Server

该仓库实现了一个基于知识图谱的MCP服务器,为LLM提供持久化记忆功能,支持存储实体、关系和观测信息,并提供增删改查等操作工具,用于增强LLM的上下文理解和用户个性化。

数据库与文件

Knowledge Graph Memory Server

基于知识图谱的 MCP 服务器,为 LLM 提供持久化记忆功能,支持实体、关系和观察的增删改查操作。