返回首页

"语义检索" 标签

44 个结果

标签搜索结果

AI与计算

AutoCAD AutoLISP GraphRAG MCP 服务端

基于 MCP(Model Context Protocol)实现的服务器端,提供对 AutoLISP 知识图谱的语义检索与上下文渲染能力。通过 MCP JSON-RPC 规范与客户端通信,暴露一个可执行的搜索工具,支持图谱查询、邻接关系扩展、以及格式化的上下文输出,适配多种传输场景。

AI与计算

Personal Knowledge MCP

基于 Model Context Protocol (MCP) 的后端服务器,面向 AI 助手提供统一的上下文服务。该实现负责资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,使用 JSON-RPC 与客户端通信,支持多传输通道(stdio、HTTP/SSE、WebSocket)、会话管理、认证与速率限制,并结合向量检索与知识图谱等组件实现对代码与教育知识的语义化访问与推理支撑。

AI与计算

CodeKG MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 CodeKG 知识图谱的资源管理、工具执行及 Prompt/上下文渲染能力,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议以便与各类 AI 客户端集成。

AI与计算

Code-Index-MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供向 LLM 客户端按标准化方式暴露资源、工具与 Prompt 模板的能力。服务器通过 JSON-RPC 风格的协议与客户端交互,支持本地代码索引、插件化语言工具、语义检索以及可扩展的上下文服务,适用于在本地环境或容器中为 AI 助手提供代码理解与上下文数据。

AI与计算

Augent MCP 服务器

基于 Model Context Protocol 的本地音频处理后端,提供资源、工具、提示模板等上下文服务,并通过 JSON-RPC 与 MCP 客户端交互,实现对转写、检索、裁剪等功能的统一访问。

AI与计算

Corpus Intelligence MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通讯,支持多传输通道(SSE/StdIO),为写作语料的上下文服务与工具化访问提供统一后端。

AI与计算

CodeKG MCP 服务器

基于 CodeKG 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端以标准化 JSON-RPC 方式提供资源数据、工具调用与提示模板等上下文服务,并实现会话管理、能力声明与多传输协议支持(如 STDIO、SSE、WebSocket)。

AI与计算

Mnemonic MCP 服务器

一个本地的 MCP(Model Context Protocol)服务器实现,提供记忆库管理、嵌入向量存储、工具执行以及基于提示的交互渲染,核心通过 JSON-RPC 与 LLM 客户端进行资源、工具和提示的访问与执行。支持多 Vault(全局主 Vault 与项目 Vault)的会话管理、迁移、同步等能力,适合在本地环境中为 LLM 应用提供可扩展的上下文服务。

AI与计算

AutoCAD AutoLISP Mac GraphRAG MCP 服务

基于 MCP 的后台服务,使用 GraphRAG/Kuzu 构建的语义知识库,为 AutoCAD AutoLISP 文档提供向量检索和上下文查询,供 LLM 客户端通过 MCP 调用工具获取知识上下文。

AI与计算

Memory Palace MCP 服务器

Memory Palace 基于 Model Context Protocol(MCP)提供一个后端 MCP 服务器实现,向 LLM 客户端以标准化 JSON-RPC 方式暴露“资源(Memory/Alias)管理、工具执行、提示与记忆渲染”等能力;支持持久存储(SQLite)、写入与检索管线、以及多传输通道(stdio 与 SSE),实现跨会话的上下文服务与可扩展的交互模式。

AI与计算

OMEGA Memory MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理与访问、工具注册与执行、以及 Prompt 模板的渲染与上下文服务,支持 JSON-RPC 通信、会话与能力声明,并可通过多种传输协议(如 STDIO、SSE、WebSocket)对接到不同的 LLM 客户端。

AI与计算

Context Mesh Foundry MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,提供跨记忆与历史的查询、保存与健康检测等工具,供 LLM 客户端通过 JSON-RPC 形式访问和调用。

AI与计算

Open Brain MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供可通过 JSON-RPC 调用的工具集(捕获、语义检索、按人/按主题检索、最近条目、统计与删除等),并支持 OAuth 授权发现、向量化检索、以及通过 PostgreSQL + pgvector 的数据存储与 Embedding 能力。仓库内同时提供 Node.js/Next.js 版本的 MCP 服务路由以及本地 Python 实现两种运行方式,适合作为面向 LLM 客户端的上下文服务后端。

AI与计算

Personal Knowledge MCP

基于 Model Context Protocol (MCP) 的本地知识管理后端,向大语言模型客户端提供资源管理、工具注册与执行、以及可渲染的提示模板等能力。通过 JSON-RPC 与客户端通信,支持多传输协议(stdio、HTTP/SSE、WebSocket),并实现对会话、能力声明、以及私有知识库的扩展能力,适用于 Claude Code 等 AI 助手的上下文服务框架。

AI与计算

PGVectorRAGIndexer MCP Server

基于 Model Context Protocol (MCP) 的本地后端服务,提供与 LLM 客户端的标准化上下文能力。当前实现暴露了用于文档检索、索引和文档列表的 Tools,通过 JSON-RPC(MCP 框架封装)在本地通过标准输入输出(stdio)与客户端进行通信,便于将本地数据库中的向量索引、工具调用与上下文模板整合到 LLM 的工作流中。

AI与计算

Ember MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Ember 记忆资源、工具与提示模板的标准化管理与访问,并通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明以及多传输协议接入,面向 LLM 客户端提供可扩展的上下文服务框架。

AI与计算

Lore MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器实现,提供统一的资源管理、工具执行与提示模板渲染能力,支持多租户、TTL、嵌入向量等特性,并通过标准化的接口(如 stdio 传输)与 LLM 客户端通信。

AI与计算

Aiana Claude Code MCP 服务器

基于 MCP(Model Context Protocol)协议的后端服务器实现,向 Claude Code 提供内存管理、语义检索、会话工具等能力,通过 JSON-RPC 形式与客户端通信,支持多后端存储与上下文注入等扩展功能。

AI与计算

BOND MCP Server 集成实现

基于 Model Context Protocol (MCP) 的多服务后端实现与管理台,提供 QAIS、ISS 等 MCP 服务器、资源/工具/提示模板的托管与渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明与多传输通道(如 STDIO、SSE、WebSocket)。

开发者工具

Engram MCP Server

基于 Model Context Protocol (MCP) 的 Engram 内存管理后端实现。该服务器将内存资源、工具执行和提示模板通过 MCP 协议对外暴露,支持 Claude Code/Cursor/Codex 等客户端的上下文注入、记忆操作和提示渲染,且具备会话管理、能力声明及多传输协议适配能力。仅作为 MCP 服务端实现,与客户端无关。

AI与计算

SaveContext MCP 服务器

基于 Model Context Protocol 的本地化 MCP 服务器,向 LLM 客户端提供资源管理、工具注册与执行、提示模板渲染等能力,支持多会话、嵌入式语义检索、离线部署和多工具协作。

AI与计算

Ragdoc MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,通过 JSON-RPC 与 LLM 客户端交互,支持多传输模式与会话管理。

AI与计算

mcp-local-rag

本地 MCP 服务器实现,用于面向大语言模型的RAG场景,提供文档资源管理、外部工具执行与基于向量检索的上下文服务,并可通过 OCR 将 PDFs 转换为可检索的文本内容。

AI与计算

Modular RAG MCP Server

基于 Model Context Protocol (MCP) 的可插拔企业级后端服务器框架,向 LLM 客户端提供资源管理、工具执行与 Prompt 渲染等上下文能力,并通过 JSON-RPC 与客户端通信,支持结构化日志、监控与多种传输协议的扩展能力。仓库实现了 MCP 相关协议适配、工具注册与执行、资源/向量检索以及多模块协作的核心组件,形成可扩展的对话式知识背景服务。

AI与计算

OpenNote MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对用户文档资源的语义检索、文档元数据与内容访问等能力,并通过 JSON-RPC/流式 HTTP 与 LLM 客户端进行交互,适配多用户场景和嵌入向量服务的后端数据服务。

AI与计算

SDLXLIFF MCP 服务器

基于 Model Context Protocol (MCP) 的 SDLXLIFF 语言对翻译后端服务器,提供读取/更新/保存 SDLXLIFF 片段、打分与标签保留的修订、QA 检查、术语与拼写检查,以及与向量检索(RAG)的上下文管理集成,支持 JSON-RPC 形式的客户端请求与响应。

AI与计算

AI Context MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板的渲染与渲染能力,支持通过多种传输协议与客户端进行 JSON-RPC 风格的交互,作为 LLM 客户端的上下文服务框架。

AI与计算

litrev-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供文献检索、知识管理、工具调用和提示模板等上下文服务,支持 Zotero 集成、RAG 搜索、知识图谱(Argument Map)以及自动化工作流工具等功能。

AI与计算

RAG MCP Server for Grounding

基于 Model Context Protocol 的 MCP 服务器实现,暴露 Grounding RAG 管线的检索、嵌入与上下文扩展等工具给大语言模型客户端,支持标准 MCP 请求/响应、StdIO 与 HTTP 传输,便于与 Claude Code、Amp 等对话代理协作。

AI与计算

Abstracts Explorer MCP Server

基于 MCP(Model Context Protocol)协议的后端服务器,向 LLM 客户端提供统一的上下文资源、可注册执行的工具以及可渲染的提示/模板,支持 JSON-RPC 通信、多种传输协议,以及会话管理与能力声明,便于在聚类分析、语义检索和论文上下文中为大语言模型提供可扩展的 contexto 服务。

AI与计算

Context8 MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大型语言模型(LLM)客户端暴露私有代码资源、可执行工具和可渲染的 Prompt 模板等上下文服务,并通过 JSON-RPC 方式进行通信,支持 STDIO 和 HTTP 两种传输通道。

AI与计算

Midnight MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、Prompts 的注册、管理与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,面向 LLM 的上下文服务与功能扩展。

AI与计算

narsil-mcp

基于 Model Context Protocol (MCP) 的高性能本地后端服务器实现,提供资源管理、工具注册与执行、以及基于模板的 Prompt 渲染,支持 JSON-RPC 标准交互、会话管理和多传输协议(如 STDIO、SSE、WebSocket),用于本地化的代码上下文理解与分析场景。内置多语言代码解析、符号与引用检索、调用图与安全分析等工具集,面向离线/隐私安全的 LLM 客户端提供丰富上下文服务。

开发者工具

Dolphin 知识库 MCP 服务器

Dolphin 是一个为 AI 接口提供语义代码搜索和知识管理的 MCP 服务器,通过托管资源、注册工具和定义 Prompt 模板,以标准化方式向 LLM 客户端提供上下文信息和功能。

AI与计算

FlowDex LLM上下文管理与工具路由服务

一个为LLM应用提供高效上下文管理、语义检索和外部工具调用能力的后端服务,支持Claude Code (MCP) 集成。

AI与计算

MemMachine

MemMachine 是一个通用AI记忆层,通过MCP协议为AI Agent提供持久化、个性化的短期和长期记忆管理服务。

数据库与文件

Vectra知识库MCP服务器

Vectra MCP Server是一个基于Model Context Protocol的服务器,用于连接和查询Vectra知识库,提供知识库管理和查询工具。

AI与计算

YouTube MCP服务器

一个基于AI的YouTube内容增强MCP服务器,提供视频搜索、转录和语义检索等工具,无需官方API。

网页与API

YouTube MCP服务器

一个基于Model Context Protocol的服务器,提供YouTube视频搜索、转录和语义检索工具,增强LLM对YouTube内容的理解和应用能力。

数据库与文件

Pixeltable MCP Server

Pixeltable MCP 服务器提供多模态数据索引和查询服务,支持音频、视频、图像和文档等多种数据类型。

生产力应用

imessage mcp

imessage-mcp 是一个本地 iMessage 消息检索 MCP 服务器,允许 LLM 客户端通过语义相似性搜索用户的 iMessage 消息历史记录,提供上下文信息。

AI与计算

mcp server rememberizer

连接大型语言模型与Rememberizer知识库,提供文档搜索、检索和数据集成等功能,作为MCP协议服务器为LLM应用提供上下文服务。

AI与计算

RAG Docs

RAG Docs 是一个 MCP 服务器,它允许用户通过语义搜索,在文档库中检索信息,支持从URL或本地文件添加文档,并使用向量数据库Qdrant进行存储和检索。

AI与计算

Rememberizer

Rememberizer MCP服务器将您的Rememberizer知识库连接到LLM客户端,提供文档搜索、知识检索和账户管理等工具。