基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型(LLM)客户端提供 YAML 规范写作辅助、资源/工具管理与提示模板渲染等能力。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(stdio)传输方式,便于本地集成到开发工具链或桌面客户端(如 Claude 桌面)中。
基于Model Context Protocol的服务器,赋能AI助手高效访问ServiceNow Fluent SDK工具及资源。
为 Obsidian 笔记库提供上下文管理和工具调用能力的 MCP 服务器,方便 AI 助手集成。
基于Model Context Protocol的Shell服务器,允许LLM安全地执行Shell命令并访问系统信息。
一个基于Model Context Protocol的服务器,通过Ledger CLI命令行工具为LLM提供财务数据访问和分析能力。
daoCLI 是一款 Solana DAO 命令行管理工具,同时集成了 MCP 服务器,支持通过自然语言与 DAO 进行交互。
Windows CLI MCP Server是一个安全的命令行工具,允许LLM客户端通过配置访问和控制Windows系统的PowerShell、CMD、Git Bash以及远程SSH系统。
Magick Convert MCP服务器允许LLM通过Model Context Protocol调用ImageMagick的命令行工具,实现图像处理和转换功能。
TaskWarrior MCP Server为 Claude 等 MCP 客户端提供 TaskWarrior 任务管理工具,允许用户通过自然语言控制 TaskWarrior。
k8s-interactive-mcp 是一个 MCP 服务器,允许用户通过自然语言指令,借助 LLM 客户端执行 Kubernetes (kubectl) 命令,实现交互式的 Kubernetes 集群管理。