返回首页

"检索增强生成" 标签

12 个结果

标签搜索结果

AI与计算

本地 FAISS MCP 服务器

基于 Model Context Protocol (MCP) 的本地向量检索后端,使用 FAISS 构建向量存储并对接 MCP 客户端,提供文档资源管理、向量检索工具与可渲染的提示模板,支持与 LLM 的安全高效上下文交互、多种传输模式(如标准输入输出)。

AI与计算

MCP工具链服务器

提供电子邮件管理、博客内容发布和知识库检索等功能的MCP后端服务集合。

AI与计算

Wingman LLM平台

Wingman是一个开源的LLM平台,集成了多种大语言模型与AI工具,并通过内置的Model Context Protocol (MCP) 服务器以标准化方式提供给外部LLM客户端。

AI与计算

智能检索MCP服务端

一个基于Model Context Protocol (MCP) 构建的RAG(检索增强生成)服务端示例,提供知识库的文档检索与添加功能,通过标准化协议支持LLM客户端进行智能上下文服务。

AI与计算

LEANN

LEANN是一个本地化、低存储的向量数据库,通过MCP协议提供代码语义搜索、文档RAG等AI服务。

AI与计算

MCP-RAG:模型上下文协议与检索增强生成

结合MCP协议与RAG技术,实现智能网络爬取、多模态处理、LLM集成和自演进能力的AI上下文服务。

AI与计算

revect: 个人记忆向量库

revect 是一个自托管的个人记忆和知识库,支持语义搜索,并可通过 MCP 协议与 AI 工具无缝集成。

开发者工具

基于Rust的MCP聊天机器人框架

基于Model Context Protocol (MCP) 的Rust后端框架,提供工具、资源、Prompt管理和LLM交互能力。

开发者工具

AI驱动的开发工具集 - MCP服务器示例

该项目仓库提供了一系列基于 Model Context Protocol (MCP) 的服务器示例,涵盖了外汇、RAG检索、股票分析和新闻检索等多种应用场景,旨在演示如何构建和使用 MCP 服务器为 AI 应用提供上下文和功能服务。

AI与计算

Wiki-RAG MCP服务器

Wiki-RAG MCP服务器基于Model Context Protocol,为LLM应用提供Mediawiki知识库的上下文服务,支持资源访问、工具调用和Prompt模板定制。

AI与计算

RAG MCP Server

RAG MCP Server是一个基于Model Context Protocol的服务器,提供文档索引和检索能力,支持LLM进行检索增强生成。

AI与计算

HADES - 混合架构动态增强系统

HADES是一个混合系统,它通过MCP服务器集成LLM和知识图谱,为自然语言查询提供上下文丰富且经过事实验证的答案。