返回首页

"嵌入检索" 标签

6 个结果

标签搜索结果

AI与计算

RecallNest MCP 服务器

基于模型上下文协议(MCP)的本地内存检索与管理后端,提供“搜索/解释/蒸馏/记忆 Pin/导出”等工具,面向与 LLM 客户端的上下文服务与功能扩展。通过 JSON-RPC 风格的 MCP 接口对外暴露服务,支持记忆资源、工具执行、以及提示模板的渲染等能力。

AI与计算

Mind 模型上下文服务端

基于 Model Context Protocol (MCP) 的后端实现,用于向大语言模型客户端以标准化方式提供资源、工具、提示模板等上下文及功能,并通过 JSON-RPC 进行通信,支持 STDIO 与 HTTP 传输模式以及多种会话管理能力。

AI与计算

PaperQA MCP 服务器

一个基于 MCP 协议的后端服务器,使用 PaperQA2 提供跨论文的深度阅读、索引与工具调用能力,向 LLM 客户端提供结构化的上下文与功能。

AI与计算

Muesli MCP 服务器(Model Context Protocol 实现)

基于 Rust 的 MCP 服务器实现,向 AI 客户端以标准化的 JSON-RPC 方式暴露会议记录的资源、工具和提示渲染能力,支持文档列表、检索、获取原始转写、同步、以及基于 OpenAI 的摘要等功能,方便将本地会议数据接入到 LLM 代理进行上下文查询与分析。

AI与计算

Nancy Brain MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,面向 MCP 客户端以标准化的 JSON-RPC 方式暴露 Nancy Brain 的知识检索上下文服务。核心职责包括:托管与管理 资源 (Resources) 以供数据访问、注册与执行 Tools 以调用外部功能、定义和渲染 Prompt 模板以支持自定义的 LLM 交互模式;并通过 stdio/HTTP 等传输协议实现与客户端的高效通信,提供会话管理与能力声明,适配多种 MCP 客户端(如 Claude Desktop、VS Code 等)。

AI与计算

Claude Copilot MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务器集合,提供内存管理、语义检索、知识扩展与技能加载等能力,面向 Claude Copilot 等 LLM 客户端,通过标准化的 JSON-RPC 交互向客户端提供资源、工具、提示等上下文与功能服务。