返回首页

"本地知识库" 标签

34 个结果

标签搜索结果

AI与计算

agenr MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,负责通过 JSON-RPC 向 LLM 客户端提供上下文信息与功能,包括托管和管理 Resources(资源)、注册与执行 Tools(工具),以及定义与渲染 Prompt 模板与交互模式。服务器负责会话管理、能力声明,并支持多种传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Context Vault MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与调用、以及提示模板渲染等核心功能,通过 JSON-RPC 与大语言模型客户端进行标准化上下文服务交互,支持本地文件存储+向量检索等能力。

AI与计算

Directory Indexer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对本地目录的语义检索、索引管理与工具调用能力,支持通过 MCP 客户端以 JSON-RPC 方式交互。

AI与计算

Flex MCP Server

基于 Model Context Protocol (MCP) 的只读 SQL 端点服务器,提供对知识单元(cells)的资源读取、向量化检索和工具/预设执行能力,并支持多种传输方式(标准输入/输出、HTTP 端口等)。

AI与计算

Lilbee MCP 服务端

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板渲染等能力,供离线/本地 LLM 客户端通过 JSON-RPC 调用获取上下文、执行外部工具和渲染提示。

AI与计算

SNIPER 知识库 MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供领域知识索引、知识检索以及对外暴露的查询工具,供 LLM 客户端按标准化JSON-RPC交互获取上下文信息与能力。

AI与计算

MCP-Obsidian

基于 Model Context Protocol (MCP) 的 Obsidian 知识库后端,向 MCP 兼容的 AI 客户端提供对本地 Obsidian Vault 的资源访问、工具执行与元数据渲染,并通过标准化的 JSON-RPC 协议进行通信与会话管理。

AI与计算

Cortex MCP 服务器

基于 Cortex 的 Model Context Protocol (MCP) 服务器实现,向 LLM 客户端提供标准化的上下文、资源与工具访问,并支持多传输协议(标准输出/HTTP+SSE),实现资源、工具、提示模板等 MCP 核心能力。

网页与API

LibScope MCP Server

基于 Model Context Protocol (MCP) 的本地知识库后端服务器,提供资源管理、工具注册与调用、提示模板渲染等能力,并通过 JSON-RPC 与 MCP 客户端通信,支持多种传输协议以便与大语言模型进行安全、可扩展的上下文服务交互。

AI与计算

Tiro MCP 服务端

基于 Model Context Protocol 的服务端实现,暴露 Tiro 本地阅野库的资源、工具与交互能力,供大语言模型通过 JSON-RPC 风格的 MCP 客户端进行查询、保存网页/邮件、获取摘要等操作,并支持通过向量检索与语义关联提供上下文信息。

网页与API

voitta-rag MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,嵌入在 voitta-rag 的 FastAPI 应用中,提供资源托管、工具执行、以及用于 LLM 的上下文/推理相关能力。服务器通过 MCP 规范暴露工具集、资源访问和元数据管理,LLM 客户端可通过 JSON-RPC 的方式对接并获取上下文与功能服务,且与本地向量存储、嵌入模型、以及文件系统等组件协同工作。

AI与计算

Context 本地离线文档上下文服务

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供离线文档资源管理、工具执行接口以及提示模板渲染,供大模型客户端在本地环境中进行高效、私有的上下文查询与交互。

AI与计算

Codebrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。

AI与计算

Bluera Knowledge MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,为本地知识库的 AI 客户端提供资源管理、工具执行与 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信。

AI与计算

Zotero MCP 集成服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,集成到 Zotero 插件中,向 AI 客户端提供资源、工具和提示等上下文服务,并支持 Streamable HTTP 传输。

桌面与硬件

Memex Twos MCP Server

基于 Model Context Protocol(MCP)的本地后端服务器,用于将 Twos 应用导出数据以资源、工具和 Prompts 的标准化方式暴露给大型语言模型客户端(如 Claude)。服务器在本地运行,提供数据查询、工具执行、上下文提示渲染能力,支持本地隐私和可扩展的上下文服务。

桌面与硬件

ScreenshotMCP

ScreenshotMCP是一个智能截图管理工具,它通过本地MCP服务器将您的截图转换为可搜索、可分类的知识库,并允许AI工具通过工具调用进行交互。

数据库与文件

Local Knowledge RAG MCP Server

这是一个基于Model Context Protocol (MCP) 的本地知识库检索增强生成(RAG)服务器,为大型语言模型(LLM)客户端提供私有文档的语义搜索、内容检索和定制化报告生成能力。

数据库与文件

FSKB (File System Knowledge Base)

FSKB 是一个基于 Model Context Protocol (MCP) 的本地文件系统知识库服务器,它允许 AI 代理通过语义搜索和上下文管理来访问和利用代码仓库中的信息。

AI与计算

Ollama-RAG-Sync MCP 服务器

基于Ollama和MCP,为LLM客户端提供RAG上下文检索和工具调用能力的后端服务。

AI与计算

本地知识库 MCP 服务器

一个本地知识库 MCP 服务器,为大型语言模型提供个性化数据存储、检索和管理能力。

AI与计算

pyLLMSearch

基于Model Context Protocol (MCP) 的高级RAG后端服务,提供文档搜索、问答和上下文管理能力。

数据库与文件

Recall.js MCP服务器

Recall.js 作为一个轻量级RAG系统,通过MCP协议提供语义搜索工具,为LLM应用提供本地知识库的访问能力。

数据库与文件

知识库MCP服务器

提供基于FAISS索引的本地知识库语义搜索能力,通过MCP协议与LLM客户端交互。

数据库与文件

mcp docs rag

一个基于Model Context Protocol的MCP服务器,实现了本地文档的RAG (检索增强生成) 功能,支持用户查询本地Git仓库和文本文件。

开发者工具

mcp server

Inkdrop MCP Server为LLM客户端提供访问Inkdrop笔记应用数据的能力,支持笔记检索、创建和笔记本列表等功能。

数据库与文件

minima

Minima MCP Server为Anthropic Claude等LLM客户端提供本地文件RAG能力,支持工具调用和Prompt定制,实现安全可扩展的上下文服务。

生产力应用

mcp apple notes

该项目是一个MCP服务器,通过语义搜索和RAG技术,使AI助手能够访问和检索用户的Apple Notes内容,实现本地知识库的集成。

生产力应用

mcp server on raspi

一个简单的MCP服务器,实现了笔记管理功能,允许LLM客户端创建、读取、总结笔记,并通过工具添加新笔记。

数据库与文件

LanceDB

LanceDB MCP Server 是一个基于 LanceDB 向量数据库的 MCP 服务器,为 LLM 应用提供文档检索和上下文信息查询功能。

生产力应用

Apple Notes

MCP Apple Notes 是一个本地运行的MCP服务器,允许AI助手(如Claude)通过语义搜索和RAG访问和利用用户的Apple Notes数据。

AI与计算

Minima (Local RAG)

Minima MCP服务器为本地RAG应用提供与LLM客户端(如Anthropic Claude)进行上下文交互的桥梁,支持资源访问、工具调用和Prompt模板。

数据库与文件

Files Vector Store

Files Vector Store 是一个 MCP 服务器,它能够监控指定目录的文件,并对其内容进行语义索引,从而为 LLM 提供本地文件的语义搜索能力。

数据库与文件

Obsidian Reader

Obsidian Reader MCP服务器将您的本地Obsidian笔记库连接到LLM客户端,提供笔记内容读取和搜索功能,增强LLM的上下文感知能力。