基于 Model Context Protocol (MCP) 的后端服务器实现,用于通过标准化的 JSON-RPC 交互向 LLM 客户端提供资源管理、工具执行、以及可渲染的提示模板等上下文服务,支持多传输协议(如标准输入输出、HTTP 流式传输等),并包含代码执行工具与文档检索工具等扩展能力。
基于 Model Context Protocol 的 MCP 服务器实现,提供文档源注册、资源查询与工具执行等能力,通过标准化的 JSON-RPC(以 stdio 为传输)与客户端通信,为 LLM 应用提供文档上下文服务与查询能力。
基于 Model Context Protocol(MCP)的后端服务器实现,提供 SharePoint 文档搜索、下载和 Excel 解析等资源与工具的标准化上下文服务,支持 stdio 与 HTTP 两种传输,利用 JSON-RPC 与客户端进行交互并进行会话管理、能力声明与错误处理。
提供基于 Model Context Protocol (MCP) 的本地服务器,为 LLM 客户端提供 LlamaIndex 生态系统的文档上下文和工具调用能力。
TiAssistant MCP 服务提供用于分析 TiDB Pull Requests 信息和知识库问答的后端服务,通过 MCP 协议与客户端交互,为 LLM 应用提供上下文信息和功能。
基于MCP协议,提供通过Meilisearch进行混合搜索(关键词+语义)文档的功能,为LLM应用提供文档检索能力。
该项目是一个 MCP 服务器,用于查询 World Mini App 文档,并提供文档全文资源和文档检索工具,方便 LLM 应用集成 World Mini App 相关知识。
一个基于FastMCP框架开发的MCP服务器,用于检索Mathematica文档和列出软件包符号,支持通过wolframscript与Mathematica交互。
Confluence MCP服务器是一个应用后端,它允许LLM客户端通过Model Context Protocol访问和检索Confluence知识库中的页面和博客文章内容。
OpenSearch MCP Server为LLM应用提供语义记忆能力,通过工具连接OpenSearch,实现文档的存储和检索,作为LLM的外部知识库。