返回首页

"文档检索" 标签

86 个结果

标签搜索结果

AI与计算

Snipara MCP 服务器

基于 Model Context Protocol (MCP) 的自托管后端服务,向 LLM 客户端以标准化方式提供资源、可执行工具以及可渲染的提示模板;通过 JSON-RPC 与 SSE 等传输实现对话上下文管理、工具调用和上下文模板渲染,支持会话管理、限流与多租户场景。实现了 MCP 的核心端到端能力,可与 Claude Code、Cursor、Windsurf 等 MCP 客户端无缝对接。

AI与计算

AgenC Architecture Docs MCP 服务器

基于模型上下文协议(MCP)的 AgenC 文档服务端,实现将架构文档以资源形式托管、注册可执行工具、提供可渲染的提示模板,并通过 MCP 服务器对外以标准化的 JSON-RPC 方式与客户端交互,为 LLM 客户端提供文档查询与上下文能力。该服务器属于对外提供上下文与工具的后端组件。<br/>核心能力包括:资源托管与数据访问、工具注册与执行、Prompt 模板定义与渲染,以及通过多传输协议(如 STDIO)实现的 MCP 通信。>

AI与计算

Foundry Docs MCP Server

基于模型上下文协议(MCP)的后端服务器,为大语言模型客户端提供 Foundry 文档的上下文、检索、工具执行和 Prompt 渲染等能力,并通过 JSON-RPC 与客户端进行通信,实现资源管理、工具注册/执行和 Prompt 定义的标准化后端服务。

AI与计算

dans_lazy_file_dump MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供对资源、工具和 Prompt 的标准化管理与渲染,并通过 JSON-RPC/HTTP 与支持的客户端进行通信,适合作为 LLM 助手的上下文服务后端。

AI与计算

llms-full-unbind MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,利用 llms-full-unbind 解析的 llms-full.txt 文件提供文档读取与搜索等工具,向 LLM 客户端以标准化的 JSON-RPC 形式暴露能力,并通过 stdio 传输等多种通道进行通信。

AI与计算

本地 FAISS MCP 服务器

基于 Model Context Protocol (MCP) 的本地向量检索后端,使用 FAISS 构建向量存储并对接 MCP 客户端,提供文档资源管理、向量检索工具与可渲染的提示模板,支持与 LLM 的安全高效上下文交互、多种传输模式(如标准输入输出)。

AI与计算

ImmyGo MCP 服务器

基于 Model Context Protocol (MCP) 的 JSON-RPC 服务器实现,提供 immygo_widget_catalog、immygo_generate_code、immygo_search_docs 等工具,供 Claude Code、Cursor 等 MCP 客户端通过标准 MCP 流式/非流式请求进行调用与协作。该仓库同时包含可运行的 MCP 客户端接入示例,形成完整的服务端与客户端配合方案。

网页与API

microCMS 文档 MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端应用,提供对 microCMS 文档的访问、检索与工具调用能力,并通过 JSON-RPC 与 MCP 客户端通信,支持本地文档资源的管理与渲染。

AI与计算

AIInbx MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,用于通过标准化的 JSON-RPC 交互向 LLM 客户端提供资源管理、工具执行、以及可渲染的提示模板等上下文服务,支持多传输协议(如标准输入输出、HTTP 流式传输等),并包含代码执行工具与文档检索工具等扩展能力。

AI与计算

Nitro 设备信息 MCP 服务器

基于模型上下文协议(MCP)的后端服务器,提供对 react-native-nitro-device-info 的资源、工具和提示模板的标准化访问,支持通过 JSON-RPC 与 LLM 客户端进行交互,用于向 AI 客户端提供文档、API 说明和查询能力。

网页与API

Ignis 文档型 MCP 服务器

基于 Model Context Protocol (MCP) 的文档型上下文服务服务器,提供文档资源、代码/文档工具,以及可渲染的提示与模板,面向大语言模型客户端以 JSON-RPC 的方式获取资源、调用工具、获取文档内容等能力。

AI与计算

Coding Friend Learn MCP Server

基于 MCP(Model Context Protocol)的服务端实现,提供学习文档资源托管、文档查询/读写以及知识追踪等工具,供不同行业的 LLM 客户端通过 JSON-RPC 进行交互和扩展。

AI与计算

OGrid MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,用于向 LLM 客户端以标准化方式提供 OGrid 的资源、工具与提示模板,并支持文档索引、桥接测试以及 IDE 集成的实时交互能力。

AI与计算

Istaroth MCP Server

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供对资源、检索工具与提示渲染的访问与执行能力,并通过 HTTP/WebSocket 通信实现跨语言的上下文服务。

网页与API

MDN MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供 MDN 文档、浏览器兼容性数据与搜索等资源,并通过 JSON-RPC 的 MCP 协议进行交互,支持工具注册、日志与错误上报等扩展能力。

网页与API

Stacklok Toolhive MCP Server

基于 MCP(Model Context Protocol)协议的后端服务,提供文档检索、嵌入向量存储访问,以及工具调用接口,供大语言模型客户端通过统一的 JSON-RPC 方式获取上下文信息与外部功能。该实现包含网页/GitHub 文档源的同步、解析、分块、本地嵌入、向量检索以及查询工具(如 query_docs、get_chunk)等核心能力,具备运行的服务器代码和完整的工作流。

AI与计算

RAG MCP Server for Grounding

基于 Model Context Protocol 的 MCP 服务器实现,暴露 Grounding RAG 管线的检索、嵌入与上下文扩展等工具给大语言模型客户端,支持标准 MCP 请求/响应、StdIO 与 HTTP 传输,便于与 Claude Code、Amp 等对话代理协作。

网页与API

inkeep-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供文档源注册、资源查询与工具执行等能力,通过标准化的 JSON-RPC(以 stdio 为传输)与客户端通信,为 LLM 应用提供文档上下文服务与查询能力。

网页与API

SharePoint Docs MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供 SharePoint 文档搜索、下载和 Excel 解析等资源与工具的标准化上下文服务,支持 stdio 与 HTTP 两种传输,利用 JSON-RPC 与客户端进行交互并进行会话管理、能力声明与错误处理。

AI与计算

MarkdownSpecs MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供对本地 Markdown 规格文档的资源管理、工具调用以及基于向量检索的语义检索能力,便于将文档内容以标准化方式提供给大语言模型客户端。实现了资源读取、目录查询、全文搜索、按标签筛选、以及语义搜索等核心功能。

AI与计算

PocketRAG MCP集成服务器

基于 Model Context Protocol (MCP) 的本地化后端,提供资源管理、工具注册与执行,以及通过标准化的 MCP JSON-RPC 流程与 Claude Desktop 等 LLM 客户端通信的能力,用于在本地进行文档检索与上下文提供。该实现包含一个以Stdio为传输的 MCP 服务端,及一组用于知识库检索、统计与文档列举的工具。

AI与计算

SWAT-Copilot MCP Server

基于 Model Context Protocol 的后端服务器,实现对 SWAT 项目资源、分析工具、输出数据以及文档检索等能力的统一对外服务,供大语言模型客户端通过 MCP 协议进行上下文信息获取、工具执行与结果展示。

网页与API

Langfuse Docs MCP Server

基于模型上下文协议(MCP)的后端服务器,在 Langfuse 文档站点中暴露 MCP 服务,提供工具注册、与客户端的 JSON-RPC 通信,以及为 LLM 客户端提供文档检索与页面获取等能力。

AI与计算

FEP MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供对 Fediverse Enhancement Proposals (FEP) 的资源访问、工具执行与提示渲染,支持通过 JSON-RPC 与客户端通信。服务器在启动时会克隆本地的 FEP 仓库,托管文档和索引,供 LLM 客户端查询、搜索与调用外部工具。

数据库与文件

Scouter知识图谱检索系统

基于Neo4j的知识图谱文档检索系统,通过MCP协议为LLM提供智能搜索功能

网页与API

FrevaGPT MCP后端服务

基于Model Context Protocol的AI助手后端,提供RAG检索和代码执行工具服务

网页与API

Haiku RAG MCP服务器

Haiku RAG是一个基于Model Context Protocol的检索增强生成系统,可为AI助手提供文档管理、智能搜索和问答功能

开发者工具

Lightfast MCP 服务器

将AI助手连接到工作区记忆的MCP服务器,提供语义搜索、内容获取和相似文档查找功能

生产力应用

InboxFewer MCP 服务器

InboxFewer 是一个 MCP 服务器,为 AI 助手提供 Gmail、Google Docs、Google Calendar、Google Meet 和 GitHub 集成功能。

AI与计算

Vibe Llama MCP 上下文服务器

提供基于 Model Context Protocol (MCP) 的本地服务器,为 LLM 客户端提供 LlamaIndex 生态系统的文档上下文和工具调用能力。

AI与计算

MCP RAG内容检索与工具服务器

基于MCP协议,提供文档管理、智能检索和引文生成等RAG功能,赋能LLM应用。

网页与API

Sudar AI教育工具MCP服务

该服务通过MCP协议向LLM客户端提供教育相关的Web搜索、网页内容抓取、内容保存为PDF及RAG文档检索工具。

网页与API

llmtext-mcp

自动将任意网站的 `llms.txt` 文件转换为一个专用的 MCP 服务器,为大语言模型提供即时上下文访问。

开发者工具

c67-mcp:Context7 文档 MCP 服务器

为AI助手提供一个高效的MCP服务器,使其能够访问和检索Context7中最新的软件库和框架文档。

开发者工具

Google Maps Platform AI 辅助服务器

一个基于MCP协议的服务器,为LLM提供Google地图平台文档和代码辅助,通过检索增强生成(RAG)技术赋能开发者。

AI与计算

Kernel MCP 服务器

为AI助手提供对Kernel平台工具和浏览器自动化功能的安全访问,是基于Model Context Protocol (MCP) 构建的后端服务。

AI与计算

E-paper MCP 服务器 (带 RAG 功能)

通过 Model Context Protocol 为 LLM 客户端提供电子报纸数据和功能,包含 RAG 增强的检索和推荐。

AI与计算

SuperNova 文档 MCP 检索服务

基于 MCP 协议的服务器,通过 RAG 为 LLM 客户端提供 SuperNova 虚拟文档的语义检索和问答能力。

开发者工具

Better Auth MCP 服务器

提供通过 Context7 API 访问特定库最新文档和代码示例的 MCP 服务器。

AI与计算

LightRAG MCP 服务器

用于连接 LightRAG API 与 MCP 兼容客户端的应用后端,通过 MCP 协议提供 LightRAG 的增强生成能力。

AI与计算

Onyx MCP 服务器

连接 Onyx 知识库的 MCP 服务器,为 LLM 客户端提供文档搜索与智能问答工具。

数据库与文件

Elasticsearch 知识库服务器

基于Elasticsearch,为LLM提供知识检索、文档学习和记忆存储能力。

AI与计算

Appliqué 文档 RAG 助手 (MCP)

为LLM提供Myntra Appliqué设计系统文档检索与应答的MCP服务器。

开发者工具

AutoMCP

从OpenAPI规范自动生成并启动MCP服务器,为LLM提供API工具、文档资源和Prompt。

数据库与文件

Morphik MCP 集成服务

连接大型语言模型客户端与Morphik数据库,提供文档搜索和管理能力。

开发者工具

Terragrunt文档MCP服务器

为LLM应用提供Terragrunt文档和GitHub issues上下文信息的MCP服务器。

开发者工具

miru MCP 服务器

miru MCP 服务器提供软件包文档和相关链接的检索工具,为语言模型提供软件库信息的上下文服务。

网页与API

llms-full MCP 服务器

llms-full MCP 服务器是一个为 LLM 应用提供文档检索和 Web 搜索功能的后端服务,通过统一的 MCP 协议进行交互。

开发者工具

Context7 MCP Server for Zed

为 Zed 编辑器提供 Context7 MCP 服务器扩展,支持在 Zed Assistant 中使用 Context7 获取最新的文档和代码示例,提升代码助手能力。

开发者工具

Mermaid文档MCP服务器

一个基于MCP协议的服务器,为LLM客户端提供访问Mermaid文档的功能,支持检索Mermaid图表类型的文档内容。

开发者工具

Godot RAG MCP Server

一个基于MCP协议的服务器,为Godot RAG模型提供Godot引擎文档的上下文检索工具。

数据库与文件

Morphik MCP服务器

Morphik MCP服务器是一个基于Model Context Protocol的应用后端,旨在连接Claude等MCP客户端与Morphik数据库,提供文档知识库的访问和管理能力。

开发者工具

TiAssistant MCP 服务

TiAssistant MCP 服务提供用于分析 TiDB Pull Requests 信息和知识库问答的后端服务,通过 MCP 协议与客户端交互,为 LLM 应用提供上下文信息和功能。

AI与计算

Beating Heart Nostr RAG服务器

基于Nostr协议文档的RAG系统,通过MCP服务器为LLM智能体提供Nostr规范的语义搜索能力。

AI与计算

Meilisearch混合搜索MCP服务器

基于MCP协议,提供通过Meilisearch进行混合搜索(关键词+语义)文档的功能,为LLM应用提供文档检索能力。

开发者工具

Scala MCP Server

一个基于Model Context Protocol的Scala项目上下文服务器,为LLM提供Scala代码的编译、测试、搜索和文档查询等工具。

开发者工具

Atlas Docs MCP Server

Atlas Docs MCP Server是一个为AI助手提供库和框架文档的MCP服务器,通过工具提供文档检索和访问功能,帮助LLM正确使用技术库。

数据库与文件

Godot RAG MCP服务器

一个基于MCP协议的RAG服务器,用于为LLM提供Godot引擎相关的上下文信息,通过查询本地ChromaDB数据库检索文档片段。

AI与计算

Vectorize MCP Server

Vectorize MCP Server 是一个基于 Model Context Protocol 的服务器实现,它集成了 Vectorize 平台,为 LLM 应用提供文档检索、文本抽取和深度研究等增强上下文能力。

开发者工具

World Mini App 文档 MCP 服务器

该项目是一个 MCP 服务器,用于查询 World Mini App 文档,并提供文档全文资源和文档检索工具,方便 LLM 应用集成 World Mini App 相关知识。

网页与API

MCP Server POC - 文档检索与Web抓取工具

此项目是一个 MCP 服务器的概念验证实现,旨在通过文档检索和 Web 抓取工具增强 AI 助手的功能。

开发者工具

TheAlmanac文档助手

TheAlmanac是一个文档助手MCP服务器,为LLM应用提供API和软件文档的检索、访问和管理工具。

网页与API

Scrapling Fetch MCP

Scrapling Fetch MCP 是一个 MCP 服务器,旨在帮助 AI 助手从具有反爬虫机制的网站抓取文本内容,扩展 AI 的信息访问能力。

开发者工具

MCP服务器示例项目

基于Python实现的MCP服务器示例,演示了如何构建资源和工具,并包含一个文档搜索工具示例。

开发者工具

FastMCP文档检索服务器

一个基于FastMCP框架构建的MCP服务器,提供在线文档搜索工具,方便LLM应用获取编程文档信息。

AI与计算

MCPServer 文档检索示例

MCPServer 是一个基于 MCP 协议的示例服务器,提供文档检索工具,帮助 LLM 客户端获取 Langchain, LlamaIndex 和 OpenAI 的文档内容。

AI与计算

Inkeep文档知识库MCP服务器

基于MCP协议,通过Inkeep RAG API为LLM提供文档检索工具,实现知识库的上下文访问。

开发者工具

anchoring

Anchoring仓库实现了一个MCP服务器,为Cursor和Claude等LLM客户端提供版本绑定的技术文档代码片段检索和组件列表功能。

AI与计算

mcp

mcp仓库提供了一系列基于Model Context Protocol (MCP) 的服务器实现,包括语义搜索等功能,旨在为LLM应用提供上下文信息和工具能力。

开发者工具

mcp bot

dspy-docs-server是一个MCP服务器,提供访问DSPy库文档和PyPI包信息的功能,支持检索README、示例和API文档内容。

数据库与文件

minima

Minima MCP Server为Anthropic Claude等LLM客户端提供本地文件RAG能力,支持工具调用和Prompt定制,实现安全可扩展的上下文服务。

数据库与文件

mcp ragdocs

基于MCP协议的RAG文档服务器,提供文档检索、管理和URL提取等工具,增强LLM的文档上下文能力。

生产力应用

mcp server obsidian omnisearch

Obsidian Omnisearch MCP服务器是一个FastMCP实现的工具,允许LLM客户端搜索和读取Obsidian笔记库中的内容,通过工具调用实现知识库的访问和利用。

AI与计算

mcp rag

本仓库提供了一个基于Model Context Protocol (MCP) 的RAG服务器示例,通过“retrieve”工具,使LLM能够检索和利用外部文档进行上下文增强。

网页与API

Perplexity AI

一个MCP服务器,通过工具集成 Perplexity AI API,提供聊天、搜索和文档检索等功能。

网页与API

Python Docs

该项目是一个MCP服务器,通过Brave搜索API为LLM客户端提供Python文档检索工具。

AI与计算

Mathematica Docs

一个基于FastMCP框架开发的MCP服务器,用于检索Mathematica文档和列出软件包符号,支持通过wolframscript与Mathematica交互。

数据库与文件

LanceDB

LanceDB MCP Server 是一个基于 LanceDB 向量数据库的 MCP 服务器,为 LLM 应用提供文档检索和上下文信息查询功能。

生产力应用

Confluence

Confluence MCP服务器是一个应用后端,它允许LLM客户端通过Model Context Protocol访问和检索Confluence知识库中的页面和博客文章内容。

AI与计算

QDrant RagDocs

QDrant RagDocs 是一个 MCP 服务器,它利用 Qdrant 向量数据库和 Ollama/OpenAI 嵌入技术,为 LLM 应用提供 RAG 文档检索与管理能力。

AI与计算

Minima (Local RAG)

Minima MCP服务器为本地RAG应用提供与LLM客户端(如Anthropic Claude)进行上下文交互的桥梁,支持资源访问、工具调用和Prompt模板。

AI与计算

RAG Documentation

RAG Documentation MCP Server是一个基于MCP协议的后端应用,通过向量搜索技术,为LLM客户端提供文档检索和处理工具,增强AI助手处理文档上下文的能力。

数据库与文件

OpenSearch MCP Server

OpenSearch MCP Server为LLM应用提供语义记忆能力,通过工具连接OpenSearch,实现文档的存储和检索,作为LLM的外部知识库。

AI与计算

RagRabbit

RagRabbit仓库实现了基于MCP协议的服务器,为LLM客户端提供文档检索和LLMs.txt资源访问能力。

AI与计算

RAG Documentation

RAG Documentation MCP Server是一个基于向量搜索的MCP服务器,旨在为LLM应用提供文档检索和上下文增强工具,支持多种文档源和语义搜索。

开发者工具

DocsFetcher

DocsFetcher MCP服务器为LLM提供多语言软件包文档检索能力,无需API密钥即可抓取和总结库文档,辅助代码理解与开发。