返回首页

"AI 助手" 标签

75 个结果

标签搜索结果

AI与计算

LFX Changelog MCP Server

基于 Model Context Protocol (MCP) 的后端服务,用于向 LLM 客户端提供资源、工具和提示模板,支持通过 JSON-RPC 与客户端交互,并实现会话管理与多种传输方式的 MCP 服务端能力。

商业系统

QuickBooks MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供对 QuickBooks Online 的资源管理、工具注册与执行,以及可定制的提示模板渲染,支持通过 JSON-RPC 与客户端交互,具备多传输协议(如 STDIO、HTTP)和会话/认证管理等能力,是一个完整的 MCP 服务端实现,而非仅仅的示例或客户端。

AI与计算

k13d MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,作为 Kubernetes 相关上下文信息、工具注册与渲染 Prompt 的标准化提供者,支持与 LLM 客户端通过 JSON-RPC 进行资源访问、工具调用与提示渲染,并提供多传输协议(stdio、SSE、WebSocket 等)以实现安全可扩展的上下文服务。该仓库实现了一个可运行的 MCP 服务端(以 k13d 为 MCP 服务名称),并内置工具注册与 MCP 客户端示例。

AI与计算

Pyrite MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供标准化的资源管理、工具执行与提示渲染能力,通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、分层权限以及多传输协议的上下文服务框架。

AI与计算

eBay API MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型(LLM)客户端提供统一的 eBay Sell API 资源与工具,以及可定制的 Prompt 渲染,支持 JSON-RPC 通信、会话管理和多传输协议(STDIO/HTTP)等能力。

网页与API

WebControl4 MCP 服务端实现

基于 Model Context Protocol 的后端服务实现,提供对资源、工具和提示模板的统一管理与暴露,支持 STDIO 与 HTTP 两种传输方式,通过 JSON-RPC 与 LLM 客户端进行交互,用于对 Control4 设备的查询、控制、历史与自动化调度等场景的上下文服务。

AI与计算

TestRail MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,将 TestRail 的数据资源与操作工具以标准化的 JSON-RPC 方式暴露给支持 MCP 的人工智能客户端,支持通过标准化接口查询、创建、更新测试用例和执行测试等功能。该服务器使用 STDIO 作为传输通道,方便在桌面客户端和 CLI 环境中与 LLM 协同工作。

开发者工具

Enable Banking MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供银行数据资源、工具与提示模板的统一访问接口,通过 JSON-RPC 与 AI 客户端通信,并支持本地会话持久化和图形化 UI 渲染。

AI与计算

Harmonica MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,暴露 Harmonica 会话管理、数据查询与 AI 助手工具给 LLM 客户端,使用 JSON-RPC 进行通信,并支持多种传输方式(如 Stdio)以提供可扩展的上下文服务。

开发者工具

Better Godot MCP

基于 Model Context Protocol 的 Godot MCP 服务器端实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 JSON-RPC 与客户端通信,支持会话管理与跨传输通道。该仓库实现了一个较为完整的服务器端框架,集成了对 Godot 引擎的检测、资源/场景/脚本等的管理工具,以及多类开发者工具的背后逻辑。适合作为面向 AI 代理的上下文服务后端。

AI与计算

PM Agent MCP 服务端集合

基于 Model Context Protocol (MCP) 的多服务器实现集合,提供资源、工具、提示模板等服务的能力,支持 JSON-RPC 通信,用于向 LLM 客户端提供可访问的资源、工具、Prompts,并实现会话管理与能力声明。以 Bun/Node 环境运行,内置对本地和远程 MCP 服务器的支持,适配 Claude Agent SDK 的 MCP 方案。

开发者工具

gdcli MCP 服务器

基于 Model Context Protocol(MCP)的 JSON-RPC 服务器实现,作为 gdcli 的内置组件,向 LLM 客户端暴露 Godot 项目的资源、工具、以及提示模板等能力,并通过标准输入输出进行 JSON-RPC 通信,支持以 stdio 传输的 MCP 客户端交互模式。该实现不仅提供运行在服务器端的 JSON-RPC 处理,还将现有的 gdcli 命令(如 doctor、scene、node、run 等)封装为 MCP 工具,供客户端远程注册和执行。

AI与计算

Analyze Coverage MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,将 LCOV 覆盖率数据以标准化的 JSON-RPC 工具形式暴露给 LLM 客户端,提供覆盖统计、未覆盖区域查询与带注释源码等能力,便于 AI 辅助分析和引导测试工作。

网页与API

microCMS 文档 MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端应用,提供对 microCMS 文档的访问、检索与工具调用能力,并通过 JSON-RPC 与 MCP 客户端通信,支持本地文档资源的管理与渲染。

AI与计算

GitHub Tamagotchi MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,向 AI 助手提供宠物资源、工具注册/执行等能力,采用 JSON-RPC 形式进行通信。内置 FastAPI 应用,通过 FastMCP 暴露工具接口,允许 AI 客户端查询宠物状态、注册/喂养宠物、获取历史等,并通过 /mcp/mcp 路径提供 MCP 服务端入口。

AI与计算

Alfanous MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,将 Alfanous Quranic 搜索引擎暴露为 MCP 的资源、工具与提示模板,提供面向 LLM 客户端的上下文与功能服务,支持通过 MCP 客户端进行资源读取、工具调用与提示渲染。

AI与计算

workz 服务器端 MCP 实现

基于 Model Context Protocol (MCP) 的服务器实现,为 AI 客户端提供对 Workz 的资源、工具与提示模板等上下文信息,采用 JSON-RPC 2.0 通过标准输入输出(stdio)进行通信,核心功能包括管理工作树、同步依赖、以及暴露用于 AI 调用的工具集。

数据库与文件

SQL Preview MCP 服务器

基于 Model Context Protocol 的多数据库后端服务器实现,向大语言模型(LLM)客户端提供统一的数据库查询工具与上下文服务,通过 MCP 协议暴露 run_query、list_tables、describe_table 等工具接口,支持多种数据库后端(如 Postgres、MySQL、MSSQL、DuckDB、Snowflake、BigQuery、Trino、SQLite 等),并通过标准化的 JSON-RPC 风格请求/响应进行通信。

网页与API

OpenPencil MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对设计文档的资源管理、工具执行与 Prompts/模板渲染等能力,支持 Stdio 与 HTTP 传输,帮助大型语言模型客户端通过标准化的 JSON-RPC 接口访问资源、调用工具并获取模板信息。

AI与计算

MCPLS - MCP 到 LSP 桥接服务器

基于 Model Context Protocol 的 MCP 服务器实现,将语言服务器(LSP)的能力暴露为 MCP 工具,提供诊断、引用/定义/悬停、完成、文档符号、格式化等多种工具,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多协议传输的扩展框架。

AI与计算

sekia MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,向 AI 助手暴露 Sekia Daemon 的能力,包括获取状态、列出注册的代理与加载的工作流、热加载工作流、向事件总线发布合成事件以及向代理发送命令等工具。通过 MCP 的 STDIO 传输与客户端通信,实现 AI 助手对 Sekia 能力的标准化访问与控制。

AI与计算

WP Pinch MCP 服务器实现

基于 Model Context Protocol (MCP) 的 WordPress 后端服务器实现。该插件将 WordPress 站点作为 MCP 服务端,向 OpenClaw 等 MCP 客户端提供标准化的资源管理、工具注册与执行,以及可渲染的 Prompt 模板等能力,支持通过 JSON-RPC 风格的通信协议进行资源读取、工具调用与 Prompt 获取,具备会话管理、能力声明以及多传输协议的扩展能力。

AI与计算

hdbconnect-mcp MCP 服务器

基于 SAP HANA 的 MCP 服务器实现,提供资源/工具/Prompt 的暴露与管理,通过 JSON-RPC 与 AI 客户端通信,支持只读访问、鉴权、以及多传输协议的后端上下文服务。

网页与API

Jira MCP 服务器(基于 MCP 协议的 Jira 集成后端)

一个将 Jira 实例与大型语言模型客户端连接的后端服务,基于 Model Context Protocol (MCP),提供资源、工具和提示模板的统一访问,并支持 STDIO 与 SSE 多传输协议,便于 AI 应用以标准化方式获取上下文信息与 Jira 相关操作能力。

AI与计算

AnkiMCP Server Addon

在 Anki 内部运行的 MCP(Model Context Protocol)服务器端实现,暴露资源、工具与提示模板给本地 AI 客户端,通过本地 JSON-RPC 形式的协议进行资源读取、工具调用与提示渲染,支持跨主线程的安全调用与本地化部署。

AI与计算

Grove MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,为大型语言模型(LLM)客户端提供标准化的上下文、工具调用和提示渲染能力,支持资源管理、工具注册与执行,以及提示模板渲染等功能,默认通过标准输入/输出(JSON-RPC over STDIO)进行通信。

AI与计算

coda-mcp

基于 Model Context Protocol (MCP) 的服务器端实现,提供对 Coda API 的资源、工具及交互能力的标准化访问,采用 JSON-RPC 进行通信,支持通过标准传输协议接入。该实现具备服务端会话管理、工具注册与执行、以及资源访问等核心能力。

AI与计算

TodoFlow MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源(任务)的托管与数据访问、工具注册与执行、以及面向 LLM 的提示/上下文渲染能力,并通过 MCP 方式与客户端进行 JSON-RPC 风格的交互,支持流式响应和多种传输场景(如 SSE)。

AI与计算

PackRun MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,向大型语言模型客户端以标准化方式提供资源、工具与对话上下文能力,支持 JSON-RPC 交互并集成多源数据健康与替代项查询。

商业系统

Autotask MCP Server

基于 Model Context Protocol (MCP) 的 Autotask MCP 服务器,向大语言模型客户端以标准化方式提供 Autotask 数据资源、工具执行能力和提示模板,支持多种传输协议(stdio、HTTP Streamable),并实现会话管理与资源/工具的统一访问。

AI与计算

QuickCall Integrations MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端以标准化方式提供资源、工具和提示模板的访问与执行能力,支持身份认证、GitHub/Slack 集成、资源读取以及多种传输协议的上下文服务。

AI与计算

Box Agentic MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对内存、阴影沙箱与审计日志等核心资源与工具的统一访问,供大语言模型(LLM)客户端通过 MCP 接口进行上下文获取、任务托管、工具调用与日志记录。

开发者工具

BNSQL MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供对 Binary Ninja 数据库的 SQL 查询、自然语言查询与外部工具调用能力,并通过 MCP/SSE 与 LLM 客户端进行标准化通信,作为上下文与功能服务入口。

AI与计算

Form.io Universal Agent Gateway (UAG) - MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务,把 Form.io 表单、资源和工具以标准化的 JSON-RPC 形式暴露给大型语言模型客户端,提供资源托管、工具注册/执行、Prompt 模板渲染等能力,并通过多种传输方式(HTTP 流、SSE、WebSocket 等)实现与客户端的通信。

网页与API

v1.npm MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供 npm 包的上下文、健康数据与可用工具,通过 JSON-RPC 形式处置资源、工具、提示模板等能力,并支持 MCP 客户端的连接与调用。

AI与计算

Zotero MCP 集成服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,集成到 Zotero 插件中,向 AI 客户端提供资源、工具和提示等上下文服务,并支持 Streamable HTTP 传输。

网页与API

Search-Scrape MCP 服务器

基于 Model Context Protocol (MCP) 的 Rust 实现的后端服务,提供 SearXNG 联邦搜索、网页抓取与内容提取等工具的 MCP 服务接口,能够向大型语言模型客户端以标准化的 JSON-RPC 方式提供资源、工具、以及会话能力,为 AI 助手提供上下文和外部功能接入能力。

AI与计算

OpenSaas Stack MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行与提示模板的注册与渲染能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明以及多传输协议接入,旨在为 LLM 客户端提供安全、可扩展的上下文服务。

开发者工具

EDAMAME Posture MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与提示模板等上下文功能的注册、执行与渲染,并通过 JSON-RPC 与外部 AI 客户端进行通信,支持本地与网络模式以及对管线的自动化控制。

AI与计算

Digest MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,为 AI 客户端(如大型语言模型)提供标准化的上下文服务:托管资源、注册并执行工具、定义与渲染提示模板,支持通过 JSON-RPC 进行通信。

AI与计算

GTM Wizard MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 AI 代理提供资源、工具、提示等上下文服务,并通过 JSON-RPC 与客户端交互,支持资源管理、工具执行与提示渲染等核心能力。

AI与计算

Google Docs MCP 服务端

基于 Model Context Protocol 的后端服务,实现对 Google Docs 的资源管理、工具注册与执行,以及 Prompt 模板渲染的 MCP 服务器。通过 JSON-RPC 风格的请求与客户端交互,提供文档读取/创建/编辑、分析、搜索等能力,并支持将 MCP 工具暴露给 AI 助手进行调用。

AI与计算

StarRocks MCP Server(Thin MCP Server)

基于 Model Context Protocol (MCP) 的后端服务器实现,通过标准化的 JSON-RPC(Stdio)与 MCP 客户端通信,提供 StarRocks 数据库的诊断分析能力,包含资源与工具的注册、SQL/Prometheus/SSH 等原子操作的编排,以及会话管理与日志记录,支持与中心 API 的协同分析与多阶段执行。该实现适用于在本地通过 Stdio 与 Claude Code、Gemini 等 MCP 客户端协作完成 AI 驱动的数据库诊断与分析任务。

AI与计算

FEP MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供对 Fediverse Enhancement Proposals (FEP) 的资源访问、工具执行与提示渲染,支持通过 JSON-RPC 与客户端通信。服务器在启动时会克隆本地的 FEP 仓库,托管文档和索引,供 LLM 客户端查询、搜索与调用外部工具。

AI与计算

vibing.nvim MCP 服务端

基于 MCP(Model Context Protocol)的 Neovim 后端实现,为 MCP 客户端提供工具暴露与执行、以及与 Neovim 的远程过程调用(RPC)桥接。通过 JSON-RPC 提供标准化的请求/响应,支持在 Studio/stdio 传输环境下与 Claude 等 LLM 客户端协同工作,便于在编辑器内进行上下文管理和外部功能调用。

数据库与文件

pgEdge PostgreSQL MCP 服务器

一个基于 Model Context Protocol 的 PostgreSQL 数据库 MCP 服务器,允许 LLM 客户端通过自然语言执行 SQL 查询和数据库分析

开发者工具

Jira AI 助手集成服务器

一个基于 Model Context Protocol (MCP) 的服务器,使 AI 助手能够通过自然语言与 Jira 进行无缝交互,管理项目、任务和工作流。

开发者工具

Neovim MCP 服务器

为语言模型提供访问和控制 Neovim 的上下文服务器。

AI与计算

Pearl MCP 服务器

连接大模型客户端到 Pearl 的 AI 助手和人类专家服务的 MCP 服务器实现。

生产力应用

Arclio G Suite MCP 服务器

提供 Google Workspace 功能(日历、云端硬盘、邮件、演示文稿)的 MCP 服务器,赋能 AI 助手

桌面与硬件

MacPilot CLI - macOS工具服务器

通过MCP协议赋能LLM,使其能够与macOS系统互动并执行操作。

开发者工具

Calva MCP Server

为 Calva 提供 MCP 服务器功能,让 AI 助手能够与 Clojure REPL 交互,实现代码的动态分析和执行。

开发者工具

SSH MCP Server

基于 MCP 协议的 SSH 服务器,允许 AI 助手通过标准接口执行远程 SSH 命令,安全操作远程服务器。

桌面与硬件

Tabby MCP Server

Tabby MCP Server 是一款 Tabby 终端插件,实现了 MCP 服务器,使 AI 智能体能够与终端会话进行交互和控制。

生产力应用

Canvas MCP Server

Canvas MCP 服务器为 AI 助手提供访问 Canvas LMS 内容的桥梁,简化课程信息查询和管理。

开发者工具

CodeLogic MCP Server

CodeLogic MCP服务器为AI编程助手提供代码和数据库依赖影响分析工具,增强代码修改的安全性和可控性。

网页与API

Webflow MCP Server

Webflow MCP Server 允许 AI 客户端通过 Model Context Protocol 访问和操作 Webflow 网站内容,提供站点、页面和 CMS 数据管理工具。

开发者工具

Vibe Coder Server

Vibe Coder Server 通过 MCP 协议为 AI 助手提供软件开发辅助工具,如代码生成、需求分析等。

开发者工具

Kubectl MCP Server

Kubectl MCP Server 是一个基于 Model Context Protocol 的 Kubernetes 上下文服务器,允许 AI 助手通过自然语言安全地操作和监控 Kubernetes 集群。

AI与计算

Dust Agent MCP 服务器

一个连接 Dust.tt 智能体平台的 MCP 服务器,通过 MCP 接口对外提供 Dust AI 智能体的能力。

开发者工具

VSCode MCP Server 扩展

ggMCP4VSCode 扩展在 VSCode 中启动 MCP 服务器,使 AI 助手能够直接与 VSCode 环境交互,实现代码操作、调试和版本控制等功能。

桌面与硬件

AbletonMCP

AbletonMCP 通过 Model Context Protocol (MCP) 将 Ableton Live 连接到 Claude AI,实现提示驱动的音乐制作和 Ableton 控制。

开发者工具

SonarQube MCP 服务器

一个基于 Model Context Protocol (MCP) 的服务器,集成 SonarQube 以向 AI 助手提供代码质量分析数据,例如代码指标、问题和质量门禁状态。

开发者工具

Unity MCP 集成服务器

此项目为 Unity 编辑器提供 MCP 服务器,使 AI 助手能够实时访问和操作 Unity 项目,实现智能化的 Unity 开发工作流。

桌面与硬件

Rhino MCP 服务器

Rhino MCP 服务器是一个基于 Model Context Protocol 的应用后端,旨在连接 AI 助手(如 Claude)与 Rhino 3D,实现通过 AI 指令创建和操控 3D 模型。

生产力应用

Toshl 财务 MCP 服务器

通过 MCP 协议连接 Toshl Finance 和 AI 智能体,提供财务数据访问和分析工具。

生产力应用

CowGnition

CowGnition 是一个 MCP 服务器,连接 Remember The Milk 任务管理服务与 LLM 客户端,使 AI 助手能够管理用户的待办事项和任务。

桌面与硬件

VRChat MCP OSC Server

通过 OSC 协议桥接 VRChat 和 MCP,使 AI 助手能够控制虚拟化身和进行互动。

AI与计算

deep research mcp

一个基于Model Context Protocol (MCP) 的服务器实现,提供AI驱动的深度网络研究工具,可通过 Claude Desktop 等 MCP 客户端调用。

AI与计算

allnads

AllNads仓库实现了基于Model Context Protocol的MCP服务器,为AI智能体提供访问区块链数据和执行智能合约交易的工具,是AllNads平台后端架构的重要组成部分。

AI与计算

crawlab mcp server

crawlab-mcp-server 是一个基于 Model Context Protocol (MCP) 构建的应用后端,为 Crawlab 爬虫平台提供标准化的 AI 应用上下文服务接口。

网页与API

dubco mcp server npm

dubco-mcp-server-npm 是一个非官方的 Dub.co MCP 服务器,允许 AI 助手通过 Model Context Protocol 协议创建、更新和删除 Dub.co 短链接。

开发者工具

Codebase Retrieval (RepoMix)

Codebase Retrieval (RepoMix) 是一个 MCP 服务器,提供工具来分析和检索本地工作区和远程 GitHub 仓库的代码库信息,方便 AI 助手理解代码项目上下文。

生产力应用

Roam Research

Roam Research MCP Server为 Claude 等 AI 助手提供标准化的接口,使其能够访问和操作 Roam Research 知识库,实现内容检索、编辑和管理等功能。

网页与API

Brave Search

Brave Search MCP Server 是一个基于 MCP 协议的服务端实现,它将 Brave Search API 的网络搜索和本地搜索功能封装成工具,供支持 MCP 协议的 AI 客户端调用,扩展 AI 的信息检索能力。