基于 Model Context Protocol (MCP) 的后端服务器,实现将 Reddit Stash 的索引、查询与对话能力以工具形式暴露给 Claude Code 等 MCP 客户端,提供资源访问、工具调用和提示模板渲染等上下文服务。
基于 Model Context Protocol(MCP)的企业级后端服务器,提供资源、工具、提示的托管与渲染能力,以及会话管理、能力声明和多传输协议支持,面向 LLM 客户端以标准化的 JSON-RPC/MCP 交互模型提供上下文和执行能力。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 方式与 MCP 客户端通信,支持嵌入式 MCP 传 transport(如 HTTP/Streams),用于向大型语言模型客户端提供可扩展的上下文与功能服务。
基于 MCP 协议,为 LLM 提供网站内容的自然语言交互后端,支持资源访问、工具调用和 Prompt 模板。
基于 Contextual AI 平台的 MCP 服务器,为大语言模型客户端提供 RAG 能力,实现知识库问答和上下文感知交互。
Confluence Gateway 利用AI能力增强 Confluence 搜索和知识检索,未来计划提供 MCP 服务器功能。
演示如何使用 LlamaCloud 搭建 MCP 服务器,通过工具集成 LlamaIndex 云端索引,为 LLM 客户端提供 RAG 能力。
基于LlamaCloud的本地MCP服务器,通过RAG工具为LLM客户端(如Claude Desktop)提供最新的私有信息访问能力。
快速为 Claude 和 Cursor 等 LLM 应用添加 MCP 功能,支持 RAG、Dify 和 Web Search 等工具,并自动生成配置。
基于Model Context Protocol (MCP) 构建的服务器,集成了Sionic AI Storm平台的RAG能力,为LLM客户端提供工具和资源访问。
该项目是一个MCP服务器,通过语义搜索和RAG技术,使AI助手能够访问和检索用户的Apple Notes内容,实现本地知识库的集成。
MCP Apple Notes 是一个本地运行的MCP服务器,允许AI助手(如Claude)通过语义搜索和RAG访问和利用用户的Apple Notes数据。