基于模型上下文协议(MCP)的后端服务器,向大语言模型客户端提供对 PostgreSQL 数据库的上下文信息、工具执行与数据访问能力,通过 JSON-RPC 进行通信,支持查询、表/视图与约束描述、索引、慢查询分析等多种工具的统一调用。
MegaMem 整合 Obsidian 插件与时序知识图谱,提供基于 Model Context Protocol(模型上下文协议)的 MCP 服务器端实现,支持资源管理、工具注册与执行、以及 Prompt 模板渲染,便于将 vault 内容以标准化上下文服务暴露给 LLM 客户端。
基于模型上下文协议(MCP)的 Slack 工作区后端服务器,为大语言模型客户端提供标准化的资源、工具和提示模板访问,并通过 JSON-RPC 与客户端通信。
基于 Model Context Protocol (MCP) 的后端实现,提供策略评估、计费意图创建与使用计量等工具,通过 JSON-RPC 与 LLM 客户端交互,支持多种传输方式,作为 AI 代理上下文服务的核心服务器组件。
基于 Claude Desktop 的 MCP 服务器实现,提供资源管理、工具调用与提示模板渲染等能力,遵循 MCP 协议通过 JSON-RPC 与客户端通信,并通过标准化的传输(如标准输入输出)供 LLM 客户端安全、可扩展地获取数据上下文与功能。该实现包含服务器端工具注册、工具执行与对接客户端的最小示例,核心工具涵盖数据扫描、摘要、数据集与研究相关输出等。