基于 Model Context Protocol 的 MCP 服务器实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,支持以 JSON-RPC 方式与运行在标准输入/输出、SSE、HTTP 的客户端进行通信。它将 Obsidian 笔记库与快速查询/推理功能整合,为 LLM 客户端提供安全、可扩展的上下文和功能接口。
为 Obsidian 笔记库提供上下文管理和工具调用能力的 MCP 服务器,方便 AI 助手集成。
一个AI原生MCP服务器,通过本地REST API为LLM提供与Obsidian笔记库交互的智能工具。
Confluence MCP 服务器是一个示例实现,允许 LLM 客户端通过 MCP 工具访问和操作 Confluence 内容。
GistPad MCP服务器允许用户通过GitHub Gists管理和共享个人知识与日常笔记,并以MCP协议提供资源和工具访问。
Anki MCP Server 是一个连接 Anki 知识卡片软件的 MCP 服务器,允许 LLM 客户端通过工具操作和管理 Anki 卡片。
Researcher MCP Server是一个研究型MCP服务器,集成了Perplexity AI,旨在提升研究和文档编写效率,提供增强的上下文建模能力。
集成Atlassian Confluence和Jira与Model Context Protocol,为LLM应用提供访问和管理Confluence页面及Jira issue的能力。