基于 Model Context Protocol (MCP) 的后端实现,提供对 Fusion360 API 文档的语义检索、类/方法文档获取与示例代码查询等功能,并通过 JSON-RPC 与 LLM 客户端交互,支持与 Claude、Cursor、VS Code Copilot 等工具的集成。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、知识库检索、线索保存等功能,供大语言模型 (LLM) 客户端通过 JSON-RPC 与 MCP 服务进行资源访问、工具调用与提示渲染。
基于 Model Context Protocol (MCP) 的独立后端服务,提供资源管理、工具注册与执行,以及提示模板的读取与渲染能力,供大语言模型客户端通过标准化的 JSON-RPC 方式获取上下文信息与外部功能。该实现包含独立的 MCP 服务器、工具注册、HTTP 路由(健康检查与请求处理)以及与向量检索、任务队列等后端组件的整合。
基于 Model Context Protocol (MCP) 的后端服务器,作为 LLM 客户端的上下文服务提供资源管理、工具注册/执行、以及 Prompt 模板的渲染与管理,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输协议,具备会话管理、能力声明与安全访问控制等特性。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC/多传输协议与客户端进行上下文服务交互。适用于给大型语言模型(LLM)提供可标准化的内存与外部功能支撑。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持 StdIO 与 HTTP 两种传输模式,并使用 Qdrant 进行向量检索,为 LLM 客户端提供安全、可扩展的上下文服务框架。
一个基于 MCP 的服务器实现,提供商品场景的语义搜索、工具调用和向量存储等能力,并通过 SSE 传输与客户端通信的 MCP 服务器实现示例。
基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板等上下文能力,采用 JSON-RPC 与客户端通信,支持多种传输方式(stdio、HTTP/SSE 等),并实现了 10 个 MCP 工具以便 Claude Code 进行高效、上下文化的回答与操作。
基于 MCP 标准的后端服务器,提供资源、工具与提示模板的注册、读取与执行,并通过 JSON-RPC 与客户端进行通信,支持在 Cloudflare Worker 环境中运行,面向 LLM 客户端提供标准化的上下文与能力服务。
基于 MCP 协议的后端服务,提供 BM25 缓存的创建、查询、刷新及统计等功能,用于加速知识检索工作流(依赖 Oracle 向量存储与本地缓存)。
基于 Model Context Protocol(MCP)的企业级后端服务器,提供资源、工具、提示的托管与渲染能力,以及会话管理、能力声明和多传输协议支持,面向 LLM 客户端以标准化的 JSON-RPC/MCP 交互模型提供上下文和执行能力。
基于 Model Context Protocol (MCP) 的后端服务,提供对资源、工具调用和提示模板的管理与渲染,通过 JSON-RPC STDIO 与客户端进行标准化通信,面向在本地嵌入式内存系统中为大语言模型提供上下文和能力的服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义以及通过 JSON-RPC 的 MCP 协议与 LLM 客户端交互,支持流式传输、SSE、OAuth2PKCE、会话管理与长时记忆分片系统等能力,面向 AI 记忆与上下文服务场景的可扩展后端。
基于 Model Context Protocol (MCP) 的 Rijksmuseum MCP+ 后端,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具与提示模板,支持多种传输模式(STDIO、HTTP),并整合 Rijksmuseum 的元数据与向量检索能力以实现艺术品上下文服务。
基于 Model Context Protocol (MCP) 的后端知识图谱服务器实现,提供将资源、工具和提示模板以 MCP JSON-RPC 方式暴露给 Claude Desktop 等 MCP 客户端,并支持同步/异步工具执行、管理员模式下的危险工具控制、以及跨传输协议的上下文服务能力。
基于 Model Context Protocol (MCP) 架构的后端服务器,提供开发者指南知识库的资源管理、工具注册和提示模板渲染,采用 JSON-RPC 通过 MCP 客户端进行交互,底层存储使用 Cloudflare 的 D1、R2 和向量数据库 Vectorize,部署在 Cloudflare Workers 上。
基于 Model Context Protocol (MCP) 的服务器端实现,用于对代码项目进行上下文分析、向量化检索和外部工具调用的统一管理。通过 JSON-RPC 风格的 MCP 客户端通信,服务器端负责会话管理、能力声明,以及资源(向量/元数据)的托管、工具执行和 Prompt 模板的渲染。实现了完整的 MCP 服务端逻辑(8 个工具),并使用 ChromaDB 进行向量存储、OpenAI 模型进行代码分析与嵌入生成,提供本地 STDIO 传输的运行能力,同时包含一个可选的 Web 管理端供查看和管理索引数据。该实现可直接作为 MCP 服务器使用或作为开发参考与扩展。
基于模型上下文协议(MCP)的后端服务器实现,提供对知识 vault 的资源管理、工具调用与提示模板渲染等能力,通过 JSON-RPC 方式与 LLM 客户端交互,支持标准的文本/向量检索、注释日志、手动与自动化操作等场景,并以标准的 stdio 传输启动 MCP 服务,方便与 Claude Code 等工具链对接。
基于 Model Context Protocol 的后端服务器,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、跨传输协议接入,具备嵌入向量、图谱化决策存储等能力,适用于 Claude Code/Desktop/OpenClaw 等环境的上下文服务与功能扩展。
基于 MemFlow 的 MCP 服务器实现,向大型语言模型客户端提供 Obsidian Vault 的上下文、资源访问、工具执行与可定制的提示模板等能力;通过 JSON-RPC/HTTP 及标准输入输出等多种传输方式与客户端进行交互,并支持本地化、隐私优先的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理、提示模板等能力,并通过 JSON-RPC 与客户端通信,支持 STDIO 与 HTTP 传输,以供 LLM 客户端查询、调用工具和获取上下文信息。
基于 Model Context Protocol 的 MCP 服务器,为本地知识库的 AI 客户端提供资源管理、工具执行与 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信。
基于 XiYanSQL 的 MCP 服务器实现,向 LLM 客户端以标准 JSON-RPC 提供数据库资源、工具调用和 Prompts 渲染等能力,支持 GreptimeDB、MySQL、PostgreSQL、SQLite 等多数据源,以及本地模型与向量检索集成,具备会话管理、能力声明和多传输协议支持。
基于 Model Context Protocol (MCP) 的后端服务,提供 Clarity 相关上下文资源、工具调用与代码生成等能力,并通过 MCP 协议与客户端进行标准化交互,支持通过标准传输(如 STDIO)与多种后端服务集成。
基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。
基于 Meilisearch 的轻量级 MCP 服务器,提供 Markdown 文档的全文和向量搜索能力。
Coco MCP服务器是 wearable 设备 coco 的后端实现,通过 Model Context Protocol (MCP) 标准协议,为 LLM 应用提供音频数据资源访问和向量检索能力。