基于 Model Context Protocol (MCP) 的轻量级后端服务器,提供对 LLM 客户端的上下文服务(资源、工具、提示等),通过 JSON-RPC 进行通信,支持以标准化方式读取资源、注册并执行工具、渲染 Prompt 模板,核心实现包含服务器端的请求/响应处理、会话管理与多传输协议支持(以 stdio 为核心的实现,具备行分隔及 Content-Length framing 方式)。
Doris MCP Server是一个基于Python的服务框架,通过自然语言处理将查询转换为SQL,为LLM应用提供数据访问能力。
一个基于MCP协议的服务器,提供将自然语言转换为SQL查询语句的功能,使LLM能够便捷地与数据库进行交互。
本示例项目展示了如何使用MCP服务器集成AWS Bedrock和数据库,实现通过自然语言查询数据库的功能。
基于MCP协议,将Dify Workflow工作流作为工具提供给LLM客户端的服务器,支持 Claude 等客户端连接。
Hypernym MCP Server通过Hypernym AI API提供语义文本分析和压缩工具,并基于Model Context Protocol与客户端通信。
Perspective MCP Server 是一个基于 Model Context Protocol 的服务器,提供文本毒性分析和评分建议工具,利用 Google Perspective API 帮助 LLM 理解文本内容安全。