返回首页

"全文检索" 标签

10 个结果

标签搜索结果

开发者工具

SwissCaselaw MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对瑞士联邦及 cantonal 判决数据的资源管理、工具注册与执行,以及面向 LLM 的 Prompt/模板渲染能力,并通过 MCP 标准协议与客户端通信。

AI与计算

Synapse MCP 服务器实现

基于模型上下文协议(MCP)的服务器端实现,负责托管和管理资源与工具、注册并执行工具、以及定义与渲染与MCP客户端交互的工具清单与查询能力,支持向下游MCP实例聚合、工具执行,以及简单的流式/JSON-RPC风格接口。

开发者工具

Clauder MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,为 Claude Code 提供跨实例协作、持久记忆与上下文管理等能力。通过 JSON-RPC 与客户端通信,支持资源管理、工具注册与调用、提示模板渲染等核心功能,同时具备多实例管理、会话上下文与本地搜索索引等特性。

AI与计算

memorybox

基于 MCP 的后端服务器,为 AI 代理提供持久化记忆、数据访问和工具执行能力;通过本地 SQLite 库存储并可跨会话检索记忆,集成五个 MCP 工具以进行存储、检索、召回、删除和列出记忆的操作。

AI与计算

Agent Memory MCP 服务端

基于 MCP(Model Context Protocol)的服务器端实现,提供内存资源、工具、提示模板的注册与管理,并通过标准化的 JSON-RPC 交互向多代理 AI 客户端提供上下文与功能服务。

AI与计算

Developer Guides MCP Server

基于 Model Context Protocol (MCP) 架构的后端服务器,提供开发者指南知识库的资源管理、工具注册和提示模板渲染,采用 JSON-RPC 通过 MCP 客户端进行交互,底层存储使用 Cloudflare 的 D1、R2 和向量数据库 Vectorize,部署在 Cloudflare Workers 上。

AI与计算

Swiss Caselaw MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供对瑞士法院判例数据的资源访问与工具调用,通过 JSON-RPC 在标准输入输出(stdio)传输,与客户端进行交互,支持搜索、获取判决、统计等功能。

AI与计算

Readur MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,将 Readur 的文档管理与 OCR API 以工具形式暴露给 AI 助手,通过 JSON-RPC 提供资源读取、工具调用和提示渲染等 MCP 功能。

AI与计算

Obsidian Vault MCP Server

基于 Model Context Protocol (MCP) 的本地只读后端服务,提供 Obsidian Vault 的笔记读取、搜索、链接解析、任务统计等工具接口,并通过 MCP 与大语言模型客户端进行标准化上下文服务交互。

数据库与文件

Meilisearch Lite MCP Server

基于 Meilisearch 的轻量级 MCP 服务器,提供 Markdown 文档的全文和向量搜索能力。