返回首页

"向量嵌入" 标签

19 个结果

标签搜索结果

AI与计算

Memento MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册/执行、以及提示模板的定义与渲染,通过 JSON-RPC 与客户端通信,支持 Streamable HTTP 与 Legacy SSE 等传输模式,用以为大语言模型客户端提供标准化的上下文服务框架。

AI与计算

UltraCode MCP 服务器端

基于 Model Context Protocol(MCP)构建的后端服务器实现,提供通过 JSON-RPC 与 LLM 客户端交互的标准化上下文服务。核心功能包括托管与访问资源(资源、数据、索引等),注册与执行工具(Tools),以及定义/渲染提示模板(Prompts),以支撑可扩展的 LLM 场景。服务器实现了基于 STDIO/命名管道等传输方式的 MCP 通信,包含会话管理、能力声明与多传输协议支持,是一个完整的 MCP 服务端实现,而非单纯的客户端示例。

AI与计算

MindMesh MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,构建并管理一个多 Claude 3.7 Sonnet 实例的协作 swarm,提供资源管理、工具调用、提示模板渲染等能力,并通过 JSON-RPC/MCP 协议与客户端对接,支持 HTTP/SSE 和 stdio 等传输方式以服务化地向大语言模型客户端提供上下文服务。

AI与计算

Memory Crystal MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供标准化的资源管理、工具调用和提示渲染能力,使用 JSON-RPC/SSE 或 STDIO 等传输方式与客户端通信,并与 Convex、Obsidian、Notion 等组件进行集成,面向为大型语言模型提供上下文数据与能力的后端服务。

AI与计算

Mnemonic MCP 服务器

一个本地的 MCP(Model Context Protocol)服务器实现,提供记忆库管理、嵌入向量存储、工具执行以及基于提示的交互渲染,核心通过 JSON-RPC 与 LLM 客户端进行资源、工具和提示的访问与执行。支持多 Vault(全局主 Vault 与项目 Vault)的会话管理、迁移、同步等能力,适合在本地环境中为 LLM 应用提供可扩展的上下文服务。

AI与计算

Remembrances-MCP 服务端

基于 Model Context Protocol (MCP) 的 Go 语言实现的后端服务器,提供长期记忆、工具注册、提示模板渲染等能力,并通过多种传输协议与客户端进行 JSON-RPC 通信,面向大语言模型的上下文服务与扩展功能。

AI与计算

本地 FAISS MCP 服务器

基于 Model Context Protocol (MCP) 的本地向量检索后端,使用 FAISS 构建向量存储并对接 MCP 客户端,提供文档资源管理、向量检索工具与可渲染的提示模板,支持与 LLM 的安全高效上下文交互、多种传输模式(如标准输入输出)。

AI与计算

GitNexus MCP后端服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源、工具与提示模版的注册、管理与数据访问能力,支持通过 JSON-RPC 与客户端通信,且实现了可扩展的传输方式(如标准输入输出、HTTP/WebSocket),为大语言模型提供安全、可扩展的代码知识上下文服务。

AI与计算

Claw Recall MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供标准化的工具集与内存检索能力,允许本地或远程的 LLM 客户端通过 MCP 访问会话记忆、搜索结果、以及外部源捕获工具等功能,并支持 STDIO 与 SSE 等传输方式。

AI与计算

Open Brain MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供可通过 JSON-RPC 调用的工具集(捕获、语义检索、按人/按主题检索、最近条目、统计与删除等),并支持 OAuth 授权发现、向量化检索、以及通过 PostgreSQL + pgvector 的数据存储与 Embedding 能力。仓库内同时提供 Node.js/Next.js 版本的 MCP 服务路由以及本地 Python 实现两种运行方式,适合作为面向 LLM 客户端的上下文服务后端。

AI与计算

agent-memory MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,为 AI Agent 提供长时记忆、工具执行和资源管理能力,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输通道(如 StdIO、SSE、WebSocket)。

AI与计算

OpenNote MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对用户文档资源的语义检索、文档元数据与内容访问等能力,并通过 JSON-RPC/流式 HTTP 与 LLM 客户端进行交互,适配多用户场景和嵌入向量服务的后端数据服务。

数据库与文件

Local Knowledge RAG MCP Server

这是一个基于Model Context Protocol (MCP) 的本地知识库检索增强生成(RAG)服务器,为大型语言模型(LLM)客户端提供私有文档的语义搜索、内容检索和定制化报告生成能力。

AI与计算

RAGex:智能代码搜索MCP服务器

RAGex是一个高性能MCP服务器,为LLM(如Claude)提供代码库的语义和正则搜索能力,实现代码模式的智能发现与复用。

AI与计算

Telnyx MCP 服务器

连接大型语言模型与 Telnyx 通信API的本地MCP服务器。

AI与计算

HexDocs MCP服务器

HexDocs MCP服务器是一个为AI应用设计的后端服务,提供Elixir Hex包文档的语义搜索功能,并通过MCP协议与客户端通信。

数据库与文件

知识库嵌入存储服务器

一个基于MCP协议的服务器,通过AI Embeddings API实现内容存储和语义搜索功能,为LLM应用提供知识库服务。

数据库与文件

LanceDB

LanceDB MCP Server为LLM应用提供向量数据库服务,支持向量数据存储、相似性搜索和管理。

开发者工具

Code Embeddings

Code Embeddings仓库实现了一个基于MCP协议的代码知识库工具,能够通过向量嵌入技术管理和检索代码知识,并作为RAG上下文提供器集成到RooCode/Cline等IDE中。