返回首页

"向量检索" 标签

133 个结果

标签搜索结果

AI与计算

EPLAN MCP 服务器 - 模型上下文协作后端

基于 Model Context Protocol (MCP) 的后端服务器,实现对 EPLAN 自动化的资源、工具和提示模板的托管与执行。通过 JSON-RPC 风格的 MCP 接口与客户端通信,支持多种传输协议(StdIO、SSE、HTTP),为 LLM 客户端提供安全、可扩展的上下文服务与工具执行能力。

AI与计算

FusionCHMIngest MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供对 Fusion360 API 文档的语义检索、类/方法文档获取与示例代码查询等功能,并通过 JSON-RPC 与 LLM 客户端交互,支持与 Claude、Cursor、VS Code Copilot 等工具的集成。

AI与计算

Graph Memory MCP 后端服务

基于 MCP 协议的后端服务,提供资源管理、工具执行、Prompt 渲染等能力,搭建知识图谱存储(Neo4j)、向量检索(Qdrant)、文档存储(S3)以及与大语言模型的集成提取,面向与 LLM 客户端的上下文服务场景。

网页与API

eMed MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、知识库检索、线索保存等功能,供大语言模型 (LLM) 客户端通过 JSON-RPC 与 MCP 服务进行资源访问、工具调用与提示渲染。

AI与计算

Neural Kitchen MCP 服务器

基于 Model Context Protocol (MCP) 的独立后端服务,提供资源管理、工具注册与执行,以及提示模板的读取与渲染能力,供大语言模型客户端通过标准化的 JSON-RPC 方式获取上下文信息与外部功能。该实现包含独立的 MCP 服务器、工具注册、HTTP 路由(健康检查与请求处理)以及与向量检索、任务队列等后端组件的整合。

AI与计算

Akashi MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,向大语言模型客户端提供统一的上下文资源、可调用工具、以及可渲染的提示模板,并通过 JSON-RPC 的 MCP 交互完成资源访问、工具执行与对话提示渲染的能力;内置会话管理、能力声明、以及可扩展的传输接口(如 Stdio、SSE、WebSocket),并与 PostgreSQL/TimescaleDB、嵌入向量检索等子系统集成,支持审计与冲突检测等企业特性。

AI与计算

SBIR Grants MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册与执行、以及提示模板的统一渲染,通过 JSON-RPC 与 LLM 客户端进行高效的上下文服务交互,支援知识库检索、文档生成、ROI 计算等功能。

数据库与文件

ChromaDB 知识图谱 MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,使用 ChromaDB 作为后端存储与语义检索,提供实体与关系的管理、查询以及图谱相关功能的 MCP API 服务。

AI与计算

EstateWise MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,为 MCP 客户端提供资源管理、工具注册与执行、以及 Prompt 渲染等功能;通过 JSON-RPC 与客户端通信,支持多种传输模式,面向大型语言模型(LLM)的上下文服务与任务协同。

AI与计算

lude-mcp

基于 Model Context Protocol (MCP) 的自托管后端服务器,提供资源读取、工具执行、提示模板渲染等功能,并通过标准的 JSON-RPC(stdio)与客户端通信,附带本地内存浏览器界面。

AI与计算

Memex Flow MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供 Flow 工具的注册与执行、资源访问、Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端(如 Claude Desktop、Cursor 等)进行通信,支持 stdio/http 传输并实现多工具集成的 MCP 服务器核心功能。

AI与计算

NexusCode MCP Knowledge Server

基于 Model Context Protocol (MCP) 的后端服务,向多种 LLM 客户端暴露可索引的资源、可执行的工具,以及可渲染的 Prompt 模板,提供标准化的 JSON-RPC/SSE/WebSocket 交互,用于资源访问、工具调用和上下文模板渲染,并支持会话管理与安全认证以服务化地为代码库提供上下文和功能服务。

AI与计算

workspace-qdrant-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,为 LLM 客户端提供标准化的上下文服务:托管资源、注册与执行工具、以及定义渲染 Prompt 的能力;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明和多传输协议(如 Stdio、SSE、WebSocket)等扩展能力。

AI与计算

Candlekeep MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,作为 LLM 客户端的上下文服务提供资源管理、工具注册/执行、以及 Prompt 模板的渲染与管理,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输协议,具备会话管理、能力声明与安全访问控制等特性。

AI与计算

Memory Crystal MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC/多传输协议与客户端进行上下文服务交互。适用于给大型语言模型(LLM)提供可标准化的内存与外部功能支撑。

AI与计算

HCE MCP 服务器端

基于 Model Context Protocol(MCP)的后端服务,提供对话上下文记忆与多种工具的标准化访问接口,使用 JSON-RPC 通过标准输入/输出等传输方式与客户端通信,核心组件包括 实体图、语义树、聚焦缓冲区,以及用于统计、抓取代码库、检索及清理内存的工具集合。

AI与计算

Code Compass MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持 StdIO 与 HTTP 两种传输模式,并使用 Qdrant 进行向量检索,为 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

Remember MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多租户、向量检索、关系图、访问控制等能力。

AI与计算

Personal Knowledge MCP

基于 Model Context Protocol (MCP) 的后端服务器,面向 AI 助手提供统一的上下文服务。该实现负责资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,使用 JSON-RPC 与客户端通信,支持多传输通道(stdio、HTTP/SSE、WebSocket)、会话管理、认证与速率限制,并结合向量检索与知识图谱等组件实现对代码与教育知识的语义化访问与推理支撑。

AI与计算

Document Organizer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供文档资源管理、工具执行与 Prompt 渲染等能力,通过 MCP 标准的 JSON-RPC 与 LLM 客户端进行通信,支持本地/云端向量检索、文本检索、OCR、LLM 增强等流程,并可通过 stdio 或 HTTP 传输协议进行连接。

AI与计算

eShopLite MCP SSE Server

一个基于 MCP 的服务器实现,提供商品场景的语义搜索、工具调用和向量存储等能力,并通过 SSE 传输与客户端通信的 MCP 服务器实现示例。

AI与计算

Tiburcio MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板等上下文能力,采用 JSON-RPC 与客户端通信,支持多种传输方式(stdio、HTTP/SSE 等),并实现了 10 个 MCP 工具以便 Claude Code 进行高效、上下文化的回答与操作。

AI与计算

OpenAI SDK Knowledge MCP 服务器

基于 MCP 标准的后端服务器,提供资源、工具与提示模板的注册、读取与执行,并通过 JSON-RPC 与客户端进行通信,支持在 Cloudflare Worker 环境中运行,面向 LLM 客户端提供标准化的上下文与能力服务。

AI与计算

统一 MCP 服务器:Qdrant/Neo4j/Crawl4AI 集成

基于 Model Context Protocol (MCP) 的后端服务器实现,整合向量检索、知识图谱与网页智能等能力,向大型语言模型客户端以标准化的 JSON-RPC 提供资源、工具和提示模板等上下文服务,包含会话管理、能力声明、鉴权与多种传输协议的支持。

AI与计算

mcp-rag MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,将本地代码库和文档转化为可检索的资源,提供语义搜索和类型查找等能力,供 LLM 客户端通过 MCP 进行上下文获取与外部调用。

AI与计算

HowCanI MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,为 LLM 客户端提供标准化的上下文与功能服务,核心包括资源(Items/Tags/Users)的托管、工具(如搜索、获取、更新、创建等)注册与执行,以及通过 MCP JSON-RPC 与客户端通信的能力,支持 HTTP 传输并具备会话管理与能力声明。

网页与API

DlightRAG MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,承载并以标准化方式向 LLM 客户端提供上下文与功能。服务器托管资源(Resources)、注册与执行工具(Tools),并定义/渲染提示模版(Prompts),通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多种传输协议(如 STDIO、SSE、WebSocket),为多工作区的 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

dans_lazy_file_dump MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供对资源、工具和 Prompt 的标准化管理与渲染,并通过 JSON-RPC/HTTP 与支持的客户端进行通信,适合作为 LLM 助手的上下文服务后端。

AI与计算

MemoLite MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册/执行以及上下文化 Prompt/记忆能力,通过 JSON-RPC 与 LLM 客户端通信并支持多种传输方式。

AI与计算

Context Vault MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与调用、以及提示模板渲染等核心功能,通过 JSON-RPC 与大语言模型客户端进行标准化上下文服务交互,支持本地文件存储+向量检索等能力。

AI与计算

Directory Indexer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对本地目录的语义检索、索引管理与工具调用能力,支持通过 MCP 客户端以 JSON-RPC 方式交互。

AI与计算

Tessera MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,用于向 LLM 客户端(如 Claude Desktop)提供规范化的上下文服务。核心功能包括资源(Documents、Workspace 状态等)管理、工具(如全文检索、读取文件、索引与同步等)注册与执行,以及提示/工作流程定义。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并附带自动同步与文件监控能力,适合本地离线、可扩展的知识上下文服务场景。

AI与计算

Cuba-Memorys MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务,为大语言模型提供长期记忆、资源管理、工具执行与提示渲染能力,通过 JSON-RPC 与客户端通信,包含知识图谱、Hebbian 学习、图谱增强检索、REM 睡眠式后台 consolidations 等高级特性。

数据库与文件

BM25 缓存 MCP 服务器

基于 MCP 协议的后端服务,提供 BM25 缓存的创建、查询、刷新及统计等功能,用于加速知识检索工作流(依赖 Oracle 向量存储与本地缓存)。

AI与计算

clude-mcp

基于 Model Context Protocol (MCP) 的自托管后端服务器实现,提供资源、工具、提示等标准化接口,并通过 JSON-RPC(stdin/stdout)与 LLM 客户端交互,支持内存存储与检索、知识图谱链接、提示渲染,以及本地内存浏览器等扩展功能。

AI与计算

SBIR Skill MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端以标准化方式提供上下文信息和功能。该服务器实现了资源、工具、提示模板的托管与管理,并通过 JSON-RPC 风格的接口与客户端通信,支持会话管理、能力声明与多种传输形式(如 StdIO/ SSE/WebSocket),以支撑 SBIR 申請相关知识库、分析工具及自动化计划书生成功能。

AI与计算

Uderia MCP 服务器端平台

基于 Model Context Protocol(MCP)的企业级后端服务器,提供资源、工具、提示的托管与渲染能力,以及会话管理、能力声明和多传输协议支持,面向 LLM 客户端以标准化的 JSON-RPC/MCP 交互模型提供上下文和执行能力。

AI与计算

SynaBun MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端,提供资源、工具、提示模板等以标准化方式向 MCP 客户端提供上下文和功能;内置本地嵌入、SQLite 存储、46 种工具、并支持多传输协议(stdio、HTTP、SSE、WebSocket 等)。

AI与计算

Neo4j Agent Memory MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,提供资源存储、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多传输方式以供 LLM 应用使用。

AI与计算

Neurolithe MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务,提供对资源、工具调用和提示模板的管理与渲染,通过 JSON-RPC STDIO 与客户端进行标准化通信,面向在本地嵌入式内存系统中为大语言模型提供上下文和能力的服务。

AI与计算

Railyard CocoIndex MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,为每个引擎实例提供语义代码搜索和 Overlay 索引管理能力,支持双表检索、实时状态查询与覆盖合并,能够通过标准化的 JSON-RPC 方式与 MCP 客户端通信。

AI与计算

MemoryClaw MCP 服务器

基于 MCP 的后端服务器,实现对内存资源的管理、工具执行与提示渲染等能力,面向大语言模型客户端提供标准化的上下文服务,支持多用户隔离、混合向量与关键字检索,以及本地存储与嵌入缓存。

AI与计算

Claude Cortex MCP Memory Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供 Claude Cortex 的内存检索、时间线、详细信息与保存等工具的标准化 JSON-RPC 接口,供 LLM 客户端按统一协议查询与调用,支持本地文本检索、向量检索与知识图谱扩展等能力。

AI与计算

Flex MCP Server

基于 Model Context Protocol (MCP) 的只读 SQL 端点服务器,提供对知识单元(cells)的资源读取、向量化检索和工具/预设执行能力,并支持多种传输方式(标准输入/输出、HTTP 端口等)。

AI与计算

Memento MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义以及通过 JSON-RPC 的 MCP 协议与 LLM 客户端交互,支持流式传输、SSE、OAuth2PKCE、会话管理与长时记忆分片系统等能力,面向 AI 记忆与上下文服务场景的可扩展后端。

AI与计算

ManagedCode.MCPGateway 服务器端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源和工具的托管与管理、支持向量化嵌入检索、以及可扩展的上下文渲染与工具执行能力,用于向大型语言模型(LLM)客户端按标准化格式提供上下文信息和功能接口。

AI与计算

Lilbee MCP 服务端

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板渲染等能力,供离线/本地 LLM 客户端通过 JSON-RPC 调用获取上下文、执行外部工具和渲染提示。

AI与计算

Connapse MCP 服务器

基于 Model Context Protocol 的后端服务端实现,面向 LLM 客户端提供资源管理、工具注册与执行,以及 Prompts 的定义渲染,使用 JSON-RPC 进行通信,并支持通过多种传输方式与 Claude Desktop 等 MCP 客户端集成。

网页与API

LibScope MCP Server

基于 Model Context Protocol (MCP) 的本地知识库后端服务器,提供资源管理、工具注册与调用、提示模板渲染等能力,并通过 JSON-RPC 与 MCP 客户端通信,支持多种传输协议以便与大语言模型进行安全、可扩展的上下文服务交互。

网页与API

rijksmuseum-mcp-plus

基于 Model Context Protocol (MCP) 的 Rijksmuseum MCP+ 后端,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具与提示模板,支持多种传输模式(STDIO、HTTP),并整合 Rijksmuseum 的元数据与向量检索能力以实现艺术品上下文服务。

AI与计算

MDDB MCP 服务端

基于 MDDB 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 MCP 配置输出等核心能力,便于将 MDDB 作为上下文服务对接大语言模型客户端。

AI与计算

AgentMemory MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具和提示模板的注册、执行与渲染,并通过 JSON-RPC 风格的 MCP 端点与客户端交互,支持嵌入式与独立两种运行模式。该仓库提供完整的 MCP 服务端实现、工具/资源/提示的暴露以及相应的 REST/MCP 接口,便于与 Claude、Cursor、Windsurf 等 MCP 客户端对接。

AI与计算

cocoindex-code

一个可运行的 MCP 服务器实现,提供代码库的语义搜索、向量索引管理与工具接口,面向与 LLM 客户端的上下文服务。

AI与计算

PGVectorRAGIndexer MCP Server

基于 Model Context Protocol (MCP) 的本地后端服务,提供与 LLM 客户端的标准化上下文能力。当前实现暴露了用于文档检索、索引和文档列表的 Tools,通过 JSON-RPC(MCP 框架封装)在本地通过标准输入输出(stdio)与客户端进行通信,便于将本地数据库中的向量索引、工具调用与上下文模板整合到 LLM 的工作流中。

AI与计算

BetterDB Memory MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供以标准化 JSON-RPC 方式向 LLM 客户端暴露资源访问、工具注册与执行,以及提示/模板渲染能力的服务器端服务,用于在 Claude Code 等环境中提供可扩展的上下文与功能服务。

AI与计算

UltraCode MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,集中管理资源、注册与执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议,提供本地化的代码上下文服务与扩展能力。

AI与计算

omengrep MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供代码资源管理、工具调用和提示模板渲染等能力,支持通过 JSON-RPC 采用标准的请求-响应模型与客户端通信,当前实现以标准输入输出(stdio)为传输通道。

AI与计算

Tessera MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,使用 JSON-RPC 机制与 LLM 客户端进行通信,支持多传输协议(包括标准输入输出、SSE、WebSocket)并内嵌 SQLite/FAISS 等组件实现安全、可扩展的上下文服务框架。

AI与计算

ThoughtLab MCP Server

基于 Model Context Protocol (MCP) 的后端知识图谱服务器实现,提供将资源、工具和提示模板以 MCP JSON-RPC 方式暴露给 Claude Desktop 等 MCP 客户端,并支持同步/异步工具执行、管理员模式下的危险工具控制、以及跨传输协议的上下文服务能力。

AI与计算

Tiro MCP 服务端

基于 Model Context Protocol 的服务端实现,暴露 Tiro 本地阅野库的资源、工具与交互能力,供大语言模型通过 JSON-RPC 风格的 MCP 客户端进行查询、保存网页/邮件、获取摘要等操作,并支持通过向量检索与语义关联提供上下文信息。

AI与计算

JiKiME-MCP 内存服务端

基于 Model Context Protocol(MCP)的后端服务器实现,暴露内存相关工具(memory_search、memory_get、memory_load、memory_save、memory_stats、memory_reindex),通过 JSON-RPC 在标准输出/输入(STDIO)传输,与 LLM 客户端进行上下文提供、资源访问与工具调用,提供会话管理、能力声明与可扩展传输协议支持。

AI与计算

QdrantRAG-DyTopo MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,提供向量检索、工具调用与 DyTopo 多代理路由等能力,旨在为本地离线/私有环境中的大模型客户端通过 MCP 协议以标准化方式获取上下文资源与功能。

AI与计算

AIVectorMemory MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供跨会话记忆的资源管理、工具注册与调用,以及提示模板的渲染能力。通过标准输入输出的 JSON-RPC 与 LLM 客户端进行通信,支持本地向量检索、嵌入模型、会话持久化以及多项目隔离等功能,适合作为 AI 编程助手的上下文和记忆后端。

网页与API

voitta-rag MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,嵌入在 voitta-rag 的 FastAPI 应用中,提供资源托管、工具执行、以及用于 LLM 的上下文/推理相关能力。服务器通过 MCP 规范暴露工具集、资源访问和元数据管理,LLM 客户端可通过 JSON-RPC 的方式对接并获取上下文与功能服务,且与本地向量存储、嵌入模型、以及文件系统等组件协同工作。

开发者工具

Qortex MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器,提供资源托管、工具注册/执行以及提示模板的管理与渲染,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供可扩展、安全的上下文服务框架。

AI与计算

Istaroth MCP Server

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供对资源、检索工具与提示渲染的访问与执行能力,并通过 HTTP/WebSocket 通信实现跨语言的上下文服务。

AI与计算

Developer Guides MCP Server

基于 Model Context Protocol (MCP) 架构的后端服务器,提供开发者指南知识库的资源管理、工具注册和提示模板渲染,采用 JSON-RPC 通过 MCP 客户端进行交互,底层存储使用 Cloudflare 的 D1、R2 和向量数据库 Vectorize,部署在 Cloudflare Workers 上。

AI与计算

Oubli MCP 服务器:Claude Code 的 fractal 记忆系统后端

基于 Model Context Protocol (MCP) 的后端服务器,为 Claude Code 提供记忆资源管理、工具执行与提示渲染的标准化 JSON-RPC 服务,支持记忆的托管、检索、合成及核心记忆的持久化存储,并通过 LanceDB 提供可扩展的向量化语义检索能力。

AI与计算

Nautobot MCP 服务端

基于 Model Context Protocol 的后端服务,提供 Nautobot API 的统一上下文访问、动态工具执行、以及知识库检索等能力,并通过 JSON-RPC/HTTP 等传输协议与客户端进行交互,支持多环境接入与向量化检索。

AI与计算

Flowise MCP Server

基于 Model Context Protocol (MCP) 的服务端实现,提供 Flowise 实例的资源、工具、提示模板等管理能力,并通过 MCP 客户端进行标准化的 JSON-RPC 交互,支持向量检索、文档存储、会话管理等后端上下文服务。

网页与API

Feonix Insight MCP KB Server

基于模型上下文协议(MCP)的知识库后端服务器实现,提供资源管理、工具执行以及提示模板等功能,并通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持网络访问与安全认证。该仓库中存在实现 MCP 的服务器端代码(如 mcp_kb_server.py、feonix_kb_server.py 等),实现了 Initialize、Tools、Resources 等 MCP 端点及健康检查等功能。

AI与计算

Memory MCP Triple System

基于 Model Context Protocol 的 MCP 服务器实现,提供多层内存管理、资源与工具治理,以及推理提示渲染,使用 JSON-RPC 的 MCP 标准通过标准输入输出(Stdio)等协议与 MCP 客户端通信,为 LLM 应用提供安全、可扩展的上下文服务。

AI与计算

Project Indexer MCP Server

基于 Model Context Protocol (MCP) 的服务器端实现,用于对代码项目进行上下文分析、向量化检索和外部工具调用的统一管理。通过 JSON-RPC 风格的 MCP 客户端通信,服务器端负责会话管理、能力声明,以及资源(向量/元数据)的托管、工具执行和 Prompt 模板的渲染。实现了完整的 MCP 服务端逻辑(8 个工具),并使用 ChromaDB 进行向量存储、OpenAI 模型进行代码分析与嵌入生成,提供本地 STDIO 传输的运行能力,同时包含一个可选的 Web 管理端供查看和管理索引数据。该实现可直接作为 MCP 服务器使用或作为开发参考与扩展。

AI与计算

Claude-Mem MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册/执行、Prompt 定义与渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理与多传输协议,作为 LLM 应用的上下文服务后端。

AI与计算

SAME MCP 服务端

基于模型上下文协议(MCP)的后端服务器实现,提供对知识 vault 的资源管理、工具调用与提示模板渲染等能力,通过 JSON-RPC 方式与 LLM 客户端交互,支持标准的文本/向量检索、注释日志、手动与自动化操作等场景,并以标准的 stdio 传输启动 MCP 服务,方便与 Claude Code 等工具链对接。

AI与计算

mcp-local-rag

本地 MCP 服务器实现,用于面向大语言模型的RAG场景,提供文档资源管理、外部工具执行与基于向量检索的上下文服务,并可通过 OCR 将 PDFs 转换为可检索的文本内容。

AI与计算

Modular RAG MCP Server

基于 Model Context Protocol (MCP) 的可插拔企业级后端服务器框架,向 LLM 客户端提供资源管理、工具执行与 Prompt 渲染等上下文能力,并通过 JSON-RPC 与客户端通信,支持结构化日志、监控与多种传输协议的扩展能力。仓库实现了 MCP 相关协议适配、工具注册与执行、资源/向量检索以及多模块协作的核心组件,形成可扩展的对话式知识背景服务。

AI与计算

Nosia MCP 服务器端

Nosia 的 Model Context Protocol(MCP)后端实现,负责向大语言模型客户端提供资源、工具与提示模板等上下文能力,并通过 MCP 协议规范化地对接外部服务与数据源,支持多租户场景、会话状态管理以及多种传输方式(如 STDIO、SSE、WebSocket),以实现对外部能力的扩展与整合。该项目不仅具备服务端管理能力,还通过服务器端的工具、提示和资源管理,促进 LLM 与外部系统的无缝交互。

AI与计算

MemoV MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,内部集成 MemoV 的 AI 助手能力。通过 JSON-RPC 风格的 MCP 通信,提供资源管理、工具注册与执行、Prompt/模板渲染等核心能力,支持通过 stdio 和 HTTP 两种传输模式与 LLM 客户端对接,具备会话管理、能力声明以及对向量数据库的可选集成(RAG 模式)。

AI与计算

Octobrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供内存资源管理、工具执行以及提示模板渲染等能力,通过 JSON-RPC 在标准输入输出(STDIO)与 LLM 客户端进行通信,支持多种内部传输与会话管理,用于向 LLM 客户端提供可访问的上下文信息与功能。

AI与计算

MAMA Memory-Augmented MCP Server

基于 Model Context Protocol 的后端服务器,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、跨传输协议接入,具备嵌入向量、图谱化决策存储等能力,适用于 Claude Code/Desktop/OpenClaw 等环境的上下文服务与功能扩展。

AI与计算

MemFlow MCP 服务器

基于 MemFlow 的 MCP 服务器实现,向大型语言模型客户端提供 Obsidian Vault 的上下文、资源访问、工具执行与可定制的提示模板等能力;通过 JSON-RPC/HTTP 及标准输入输出等多种传输方式与客户端进行交互,并支持本地化、隐私优先的上下文服务。

AI与计算

rust-code-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供混合代码检索、增量索引、向量嵌入存储及相关分析工具等能力,支持资源、工具、提示模板等的标准化上下文服务与 JSON-RPC 通信。该仓库包含服务器端实现与完整的服务器逻辑,非仅客户端示例。

网页与API

Stacklok Toolhive MCP Server

基于 MCP(Model Context Protocol)协议的后端服务,提供文档检索、嵌入向量存储访问,以及工具调用接口,供大语言模型客户端通过统一的 JSON-RPC 方式获取上下文信息与外部功能。该实现包含网页/GitHub 文档源的同步、解析、分块、本地嵌入、向量检索以及查询工具(如 query_docs、get_chunk)等核心能力,具备运行的服务器代码和完整的工作流。

AI与计算

OpenCode Spec Kit MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器实现框架,提供资源管理、工具注册与执行、Prompt 模板渲染,以及多传输协议支持,面向大模型客户端提供标准化的上下文与功能服务。

AI与计算

RAG MCP Server for Grounding

基于 Model Context Protocol 的 MCP 服务器实现,暴露 Grounding RAG 管线的检索、嵌入与上下文扩展等工具给大语言模型客户端,支持标准 MCP 请求/响应、StdIO 与 HTTP 传输,便于与 Claude Code、Amp 等对话代理协作。

AI与计算

Turbopuffer MCP 服务器(TypeScript 实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理、提示模板等能力,并通过 JSON-RPC 与客户端通信,支持 STDIO 与 HTTP 传输,以供 LLM 客户端查询、调用工具和获取上下文信息。

AI与计算

ELF-MCP 服务器实现

基于 ELF 的 MCP 服务器实现,提供对大型语言模型(LLM)客户端的资源、工具调用与提示模板的上下文服务。通过 JSON-RPC 风格的 MCP 协议,将对资源和工具的访问请求转发到 ELF HTTP API,支持多种传输和会话模式,易于与 Claude 等 MCP 客户端对接。

AI与计算

Bluera Knowledge MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,为本地知识库的 AI 客户端提供资源管理、工具执行与 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信。

AI与计算

mdemg MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,为 LLM 客户端提供统一的上下文服务,核心功能包括托管与管理 Resources(资源)、注册和执行 Tools(工具),以及通过 Cursor 等传输途径与客户端进行 JSON-RPC 通信,便于将内存、检索、推理等能力暴露给 AI 编码代理。当前仓库中实现了一个可运行的 MCP 服务器端,具备工具注册、服务暴露和标准传输接口的完整能力。

AI与计算

FreeAct MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供 JSON-RPC 风格的资源管理、工具注册与执行、以及 Prompt 渲染,支持基于 BM25/向量的工具搜索、审批流控制和多种传输模式,面向为 LLM 客户端提供安全、可扩展的上下文服务。

AI与计算

Git-AI MCP 服务器实现

基于 Model Context Protocol (MCP) 的本地化后端,作为 MCP 服务器提供上下文资源、工具执行与提示模板管理等能力。通过 JSON-RPC 与 AI 客户端通信,支持多种传输方式(如 Stdio、HTTP、SSE/WebSocket),实现对代码语义索引、工具调用和提示渲染的标准化服务。

AI与计算

MCP Vector Search 服务器端

基于 Model Context Protocol (MCP) 的后端服务实现,作为 MCP 客户端的服务器端,托管与管理资源、注册与执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端通信,提供会话管理、能力声明及多传输协议支持的上下文服务框架。该仓库实现了 MCP 服务器端的核心功能,并与向量检索后端(嵌入、数据库等)进行整合。

数据库与文件

XiYan MCP 服务器(xiyan_mcp_server)

基于 XiYanSQL 的 MCP 服务器实现,向 LLM 客户端以标准 JSON-RPC 提供数据库资源、工具调用和 Prompts 渲染等能力,支持 GreptimeDB、MySQL、PostgreSQL、SQLite 等多数据源,以及本地模型与向量检索集成,具备会话管理、能力声明和多传输协议支持。

AI与计算

AILSS MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,为 Obsidian 知识库提供资源、工具、提示模板等统一访问接口,通过 JSON-RPC 与客户端通信,支持 STDIO 与本地 HTTP 传输,并与本地向量检索索引数据库协同工作。

AI与计算

workspace-qdrant-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 4 种 MCP 工具(search、retrieve、memory、store)的暴露与管理,并通过 JSON-RPC 与 LLM 客户端交互;同时集成 Rust 守护进程 memexd、Qdrant 向量数据库及 SQLite 队列,支持会话管理、心跳机制与降级处理。

AI与计算

Claude Copilot MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务器集合,提供内存管理、语义检索、知识扩展与技能加载等能力,面向 Claude Copilot 等 LLM 客户端,通过标准化的 JSON-RPC 交互向客户端提供资源、工具、提示等上下文与功能服务。

AI与计算

AIMED ConPort MCP 后端服务器

基于 ConPort MCP 的完整后端实现,提供模型上下文(Resources)、工具(Tools)、提示模板(Prompts)等标准 MCP 功能,并集成多工作区隔离、向量嵌入检索和知识图谱可视化,面向向大语言模型的上下文服务与外部功能调用。Subscribe to JSON-RPC over HTTP,支持会话管理与多传输方案。此仓库包含服务器端实现代码、数据库迁移、向量存储以及与 UI/dashboard 的整合。

AI与计算

Stacks Builder MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供 Clarity 相关上下文资源、工具调用与代码生成等能力,并通过 MCP 协议与客户端进行标准化交互,支持通过标准传输(如 STDIO)与多种后端服务集成。

AI与计算

MemWyre MCP 服务器端实现

MemWyre 的 MCP 服务器端实现,基于 Model Context Protocol 架构,为 LLM 客户端提供标准化的资源、工具与提示模板,并通过 JSON-RPC 风格接口与客户端通信,支持会话管理、能力声明及多传输通道的扩展能力。

AI与计算

OASM MCP Server

基于 Model Context Protocol (MCP) 的后端服务,用于向大模型客户端以标准化方式提供上下文、资源、工具和提示模板,并通过 gRPC/HTTPS 等协议实现对外通信与会话管理。该实现涵盖资源与工具的托管与访问、Prompts 的定义渲染、以及对多服务器的注册与健康状态管理。实现面向可扩展的上下文服务框架,便于在 LLM 场景中集成外部能力。

网页与API

OSINT MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 提供资源、工具与提示模板给 LLM 客户端,并以标准化的方式与 OSINT 平台 API 对接,支持通过 Stdio 传输进行通信与会话管理。

AI与计算

OpenSaas Stack MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行与提示模板的注册与渲染能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明以及多传输协议接入,旨在为 LLM 客户端提供安全、可扩展的上下文服务。

AI与计算

MarkdownSpecs MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供对本地 Markdown 规格文档的资源管理、工具调用以及基于向量检索的语义检索能力,便于将文档内容以标准化方式提供给大语言模型客户端。实现了资源读取、目录查询、全文搜索、按标签筛选、以及语义搜索等核心功能。

AI与计算

Finnie AI MCP - 多工具后端服务集合

基于 Model Context Protocol (MCP) 的一组后端服务器,提供资源、工具与 prompts 的标准化上下文与功能,面向 LLM 客户端通过 JSON-RPC/SSE 等传输协议进行资源读取、工具调用、以及提示模板渲染等能力,支持多种传输通道与缓存优化,构建可扩展的金融上下文服务框架。

AI与计算

Memory Library MCP Server

基于 Memory Library 的 MCP 服务器实现,为大语言模型客户端提供统一的上下文、工具、资源和提示,支持通过 JSON-RPC 进行交互,并可扩展的向量检索与嵌入管理能力。

开发者工具

Codesearch MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现。该服务器托管并管理资源、注册并执行工具、定义并渲染 prompts,通过 MCP 协议与客户端进行 JSON-RPC 通信,支持将多代理代码搜索能力整合为一个可扩展的后端服务(当前实现以标准输入传输(stdio)为主,未来可扩展到 SSE/WebSocket 等传输方式)。

AI与计算

claudemem MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 Claude Code 客户端以标准化方式提供资源管理、工具注册与执行、以及提示模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并提供本地/云模型的嵌入索引、检索与分析能力。该仓库实现了完整的 MCP 服务器端逻辑与相关工具集成,而不仅仅是客户端示例。

AI与计算

Enfinyte MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具与 Prompt 的注册、执行与渲染,并通过 JSON-RPC/多传输协议(如 HTTP/SSE/WebSocket)与 LLM 客户端进行安全、可扩展的上下文服务交互。

AI与计算

PocketRAG MCP集成服务器

基于 Model Context Protocol (MCP) 的本地化后端,提供资源管理、工具注册与执行,以及通过标准化的 MCP JSON-RPC 流程与 Claude Desktop 等 LLM 客户端通信的能力,用于在本地进行文档检索与上下文提供。该实现包含一个以Stdio为传输的 MCP 服务端,及一组用于知识库检索、统计与文档列举的工具。

AI与计算

Context8 MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大型语言模型(LLM)客户端暴露私有代码资源、可执行工具和可渲染的 Prompt 模板等上下文服务,并通过 JSON-RPC 方式进行通信,支持 STDIO 和 HTTP 两种传输通道。

AI与计算

Redstack Vault MCP 服务器

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源、工具和提示模板的标准化上下文服务,通过 JSON-RPC 进行请求/响应,且支持 SSE/WebSocket 等传输形式,便于在受控环境中实现高效的上下文管理与外部功能调用。

AI与计算

Opencode MCP 语义上下文服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供持久化记忆、工具执行和 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持内存资源管理、工具注册/执行、Prompt 渲染,以及会话管理,具备本地向量检索、离线嵌入和多种传输能力的服务端实现。

AI与计算

docsearch-mcp

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。

AI与计算

DMCP 动态模型上下文协议服务器

基于 MCP 的后端实现,提供动态工具发现、向量检索和跨后端工具路由,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用与提示渲染。

AI与计算

HMLR Memory MCP 服务器(Go 实现)

基于 Model Context Protocol 的内存后端服务器,提供资源管理、工具执行与提示渲染等 MCP 功能。通过标准的 JSON-RPC 风格接口与客户端通信,内部实现了会话管理、主题路由、向量检索、事实抽取等能力,并通过标准输入输出(STDIO)提供 MCP 服务,适配 Claude Code 等 MCP 客户端进行上下文管理与外部功能调用。

AI与计算

MySQL MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 MySQL 的只读资源访问、工具执行、向量工具以及可渲染的提示模板能力,并通过 JSON-RPC/HTTP 等传输与 LLM 客户端进行安全、可扩展的交互。

数据库与文件

Forgetful Memory Service

一个基于MCP协议的知识存储与检索系统,专为AI智能体提供跨会话的持久化记忆管理。

网页与API

Spring AI Alibaba 智能数据分析代理

基于Spring AI的企业级数据分析MCP服务器,提供智能数据查询、SQL生成和报告生成功能

开发者工具

Claude Skills MCP 服务器

一个基于Model Context Protocol (MCP) 构建的服务器,旨在为LLM(如Claude Agent)提供高效的技能搜索、管理和文档访问能力,支持本地部署和自动更新。

AI与计算

第二大脑AI助手MCP服务器

为LLM客户端提供个人知识管理(PKM)的上下文信息和工具,支持文档语义搜索、内容统计及领域查询,通过MCP协议进行标准化通信。

AI与计算

FlowVO

基于微服务架构的智能对话与向量检索平台,包含数据库、文件等MCP服务,支持Function Call。

AI与计算

阿里云OpenSearch及AI搜索 MCP服务器

集成阿里云OpenSearch向量检索和AI搜索服务,提供丰富的上下文信息和工具能力给LLM客户端。

AI与计算

MCP RAG 服务器

基于MCP协议的RAG服务器,支持多格式文档索引与向量检索,通过JSON-RPC为LLM客户端提供服务。

数据库与文件

Meilisearch Lite MCP Server

基于 Meilisearch 的轻量级 MCP 服务器,提供 Markdown 文档的全文和向量搜索能力。

AI与计算

Coco MCP服务器

Coco MCP服务器是 wearable 设备 coco 的后端实现,通过 Model Context Protocol (MCP) 标准协议,为 LLM 应用提供音频数据资源访问和向量检索能力。

AI与计算

Vectorize MCP Server

Vectorize MCP Server 是一个基于 Model Context Protocol 的服务器实现,它集成了 Vectorize 平台,为 LLM 应用提供文档检索、文本抽取和深度研究等增强上下文能力。

AI与计算

统一知识管理系统

集成多源知识的统一知识管理系统,通过MCP服务器为LLM客户端提供结构化知识访问和检索能力。

数据库与文件

MCP多功能服务平台

MCP多功能服务平台是一个后端服务,为大型语言模型提供文件、数据库、API和向量数据库等资源的访问和管理能力,支持LLM应用构建。

数据库与文件

阿里云表格存储MCP服务器

基于阿里云表格存储构建的MCP服务器,提供文档的存储和检索工具,方便LLM应用集成表格存储服务。

数据库与文件

Qdrant MCP 服务器

基于MCP协议实现的Qdrant向量数据库后端服务,为LLM应用提供向量数据管理和检索能力。

开发者工具

Progmo MCP Server

Progmo MCP Server 是一个基于 MCP 协议的后端,为 LLM 客户端提供知识管理、代码审查和测试管理等工具和服务。

数据库与文件

mcp server weaviate

基于MCP协议实现的Weaviate知识库和记忆服务器,为LLM客户端提供知识检索和记忆存储功能。