返回首页

"AI 集成" 标签

79 个结果

标签搜索结果

AI与计算

Runbook AI MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供浏览器自动化能力的资源、工具与提示模板,通过 JSON-RPC 与 MCP 客户端通信,并通过 WebSocket 与 Chrome 扩展协同执行任务。

网页与API

Redmine OAuth FastMCP 服务端

基于 FastMCP 的 Redmine MCP 服务器实现,提供资源、工具和提示的标准化上下文服务,并通过 Redmine 的 OAuth2.0 验证实现安全访问,支持 Streamable HTTP 等传输协议。

AI与计算

Synaptiq MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务,向大语言模型(LLM)客户端提供结构化的代码上下文、资源和工具,采用 JSON-RPC 进行请求/响应通讯,支持多传输协议并实现会话管理、能力声明与跨语言知识图谱查询等能力,适合在本地离线环境中为 AI 代理提供代码洞察与自动化工具执行能力。

AI与计算

hotpath-meta-mcp-server

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,嵌入 hotpath-rs 的后端组件,向大型语言模型(LLM)客户端提供资源、工具和提示模板等上下文能力,并通过 JSON-RPC 与客户端通信,支持在应用中以嵌入式方式提供实时性能数据查询与上下文服务。

AI与计算

Kastell MCP 服务端

基于模型上下文协议(Model Context Protocol,MCP)的后端实现,为大语言模型(LLM)客户端提供统一的资源管理、工具注册与执行、以及可定制的 Prompt 模板渲染等功能,并通过 JSON-RPC 与客户端通信,支持多传输协议与会话管理,构建 AI 场景中的上下文服务核心。

开发者工具

SmartLead MCP Server

基于 Model Context Protocol (MCP) 的服务端实现,将 SmartLead API 以 MCP 工具形式暴露给 LLM 客户端,支持资源管理、工具注册与执行、提示模板渲染等核心能力,且通过 JSON-RPC 方式与客户端通信,具备会话管理、能力声明及多传输协议兼容(如 StdIO)等特性。

开发者工具

ESP32 NAT Router MCP Bridge

基于 Model Context Protocol(MCP)的后端服务器实现,能够通过 MCP 客户端以标准化方式读取路由状态、修改路由设置、管理 ACL/端口映射等,并通过远程控制端口与 ESP32 NAT Router 的远程命令界面进行交互,支持多种传输方式(stdio、SSE、HTTP流式等)。

AI与计算

Webhooks-CC MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供标准化的资源、工具和提示模板管理能力,供大语言模型(LLM)客户端通过 JSON-RPC 调用,实现对 Webhooks 场景的上下文服务、工具执行与数据访问。该仓库包含可运行的 MCP 服务器实现及对应工具集,用于将 AI 助手接入 webhooks 平台的资源与功能。

AI与计算

dartwork-mpl 模型上下文协议服务端

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器,向大模型客户端以标准化方式提供上下文信息与功能。核心能力包括托管与管理资源、注册并执行工具、定义与渲染提示模板;通过 JSON-RPC 实现与客户端的通信,支持会话管理与多传输通道(如 StdIO、SSE、WebSocket),并提供安全、可扩展的上下文服务。

AI与计算

SnapTray MCP 服务端

基于 Model Context Protocol (MCP) 的本地 MCP 服务器集成于 SnapTray 主应用,向本地的 LLM 客户端提供资源、工具与 Prompt 模板的统一访问与执行能力,并通过本地 HTTP 的 JSON-RPC 进行通信。

AI与计算

PKS MCP 服务端(Model Context Protocol 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具暴露与提示模板渲染等核心能力,通过 JSON-RPC 与 AI 客户端通信,支持多传输模式,具备会话管理与能力协商能力。

网页与API

TrendRadar MCP Server (FastMCP 2.0 实现)

基于 Model Context Protocol (MCP) 的新闻聚合与分析后端服务端实现,提供资源管理、工具执行、Prompts 渲染等 MCP 核心能力,并通过 JSON-RPC 在标准输入输出(stdio)或 HTTP 传输模式与 MCP 客户端进行通信,支持多客户端接入、会话与能力声明、以及数据推送/分析等功能。该仓库中包含完整的 MCP 服务器实现、数据查询、分析工具以及对接 AI 客户端的能力。

AI与计算

SitecoreMCP MCP服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供 Sitecore GraphQL 的资源、工具与提示模板,以 JSON-RPC 形式通过标准传输(如 STDIO)与 LLM 客户端通信,支持对 Sitecore 内容上下文的管理与外部功能调用。

AI与计算

UniFi MCP 服务端(Go 实现)

基于 Model Context Protocol (MCP) 的后端服务器,将 UniFi Network 的运维操作暴露为标准化的工具集成,能通过 JSON-RPC 与 LLM/代理进行交互,支持标准输出(stdio)和 HTTP 传输,提供会话管理、能力声明与多样传输协议的 MCP 服务器实现。

AI与计算

QuickDesk MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具、提示模板的管理与渲染能力,并通过 JSON-RPC/SSE 与 AI 客户端交互,支持 stdio 与 HTTP/SSE 两种传输模式,能够将 AI Agent 与 QuickDesk 主机远程桌面进行安全、可扩展的上下文服务对接。

AI与计算

ESP32 NAT Router MCP Bridge

将 ESP32 NAT Router 设备作为一个 MCP 服务器,通过 JSON-RPC 的方式暴露命令接口,允许 LLM 客户端以标准化的方式读取资源、调用工具、获取并渲染提示等;实现基于远程控制台的设备管理桥接,支持多种传输模式,便于在 AI 生态中对路由器进行上下文化控制与监控。

AI与计算

ImmyGo MCP 服务器

基于 Model Context Protocol (MCP) 的 JSON-RPC 服务器实现,提供 immygo_widget_catalog、immygo_generate_code、immygo_search_docs 等工具,供 Claude Code、Cursor 等 MCP 客户端通过标准 MCP 流式/非流式请求进行调用与协作。该仓库同时包含可运行的 MCP 客户端接入示例,形成完整的服务端与客户端配合方案。

桌面与硬件

Parachord MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的后端服务,标准化向外部LLM客户端提供资源、工具与提示模板的访问和执行能力,并通过JSON-RPC进行通信,支持多种传输方式以实现安全、可扩展的上下文服务。

桌面与硬件

OculOS MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,为 AI 客户端提供资源、工具调用能力与提示模板渲染等上下文服务;通过 JSON-RPC 2.0 以换行分隔的文本协议在标准输入输出(STDIN/STDOUT)上与客户端通信,支持对桌面应用的自动化控制与上下文信息管理。

AI与计算

Modbus MCP Server

基于 Model Context Protocol (MCP) 的 Modbus 设备后端服务器,向大语言模型客户端提供对 Modbus 设备的资源读取、工具执行与提示渲染等能力,采用 JSON-RPC 风格的 MCP 通信,支持资源、工具、提示的统一管理与执行。

AI与计算

Furman MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt/上下文相关支持,专为让大语言模型(LLM)以标准化方式访问文件资源、执行外部工具(如 S3/SFTP 操作)而设计。服务器通过 JSON-RPC 与客户端通信,支持在标准输入/输出(STDIO)传输上运行,便于与 AI 客户端(如 Claude 等)进行无缝对接。

开发者工具

NULL EPOCH MCP 服务器 (TNE-SDK 内置实现)

基于 Model Context Protocol 的本地 MCP 服务器实现,将 The Null Epoch 的游戏 REST API 以 JSON-RPC 风格暴露给 MCP 客户端,方便 AI 客户端通过 get_state 和 submit_action 等工具与游戏后端交互。该实现提供初始化、工具清单、单工具调用、通知等 MCP 基本功能,适用于 Claude Desktop、Cursor、Kiro 等支持 MCP 的客户端。

开发者工具

GitLab CLI MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,集成资源、工具、提示模板等能力,提供标准化的上下文服务以供 LLM 客户端调用,并通过 Stdio 传输支持快速本地测试与集成。

AI与计算

MarkView MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供将 MarkView 的 Markdown 预览能力以资源、工具和提示(Prompts)的形式暴露给 LLM 客户端,并通过 JSON-RPC 与客户端通信,支持通过本地/云端对话上下文进行资源访问、外部工具调用与 Prompt 模板渲染等功能。

AI与计算

WebAI-MCP

基于模型上下文协议(MCP)的本地后端服务器,向大语言模型客户端提供结构化的浏览器上下文、工具和提示模板,并通过 JSON-RPC 进行通信。实现了资源、工具、提示模板的托管、注册与渲染,以及会话管理和跨传输协议的支持,适用于在本地环境中为 LLM 客户端提供可扩展的上下文服务。

AI与计算

BACnet MCP 服务器

基于 Model Context Protocol (MCP) 的 BACnet MCP 服务器实现,提供资源、工具和提示模板,允许大模型客户端通过 JSON-RPC 与本地或远端 BACnet 设备进行交互。服务器端实现了对 BACnet 设备的读取、写入、设备发现等功能,并通过 MCP 的资源、工具、提示机制暴露给 LLM 客户端,同时支持可扩展的传输方式(如 HTTP/Streamable HTTP),包含身份认证选项和健康端点。

AI与计算

Outlook MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Outlook 的资源、工具与提示模板,并通过 JSON-RPC 进行通信和协作。服务器管理会话、对接 Microsoft Graph API 以访问邮件、日历、联系人等数据,支持多种传输方式(如 Stdio、SSE、WebSocket),并通过工具集提供可扩展、可控的上下文服务。

AI与计算

SpecForge MCP 服务器(Model Context Protocol 实现)

基于 Model Context Protocol (MCP) 的后端服务,作为 LLM 客户端的上下文服务提供者,负责资源与工具的托管管理、Prompt 模板的定义与渲染,以及与 MCP 客户端通过 JSON-RPC 协议进行通信。该实现包含身份鉴权、会话管理、快照与导入流程、以及对工具的注册与执行能力,支持多种传输与扩展能力,定位为 Agentier IDE 等环境中的后端上下文服务。

AI与计算

Safe DOCX MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现。该服务器提供对 DOCX 文档的读取、编辑、注释、格式化、追踪修订等资源和工具的标准化访问,能够通过 JSON-RPC 与 LLM 客户端进行交互,支持资源/工具注册、会话管理、能力声明以及多种传输协议(当前实现通过标准输入输出进行通信)。

AI与计算

Things Cloud MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,将 Things Cloud 的数据与功能暴露给大模型/LLM 客户端,通过 JSON-RPC 提供资源管理、工具执行与模板渲染等能力,支持多用户、OAuth2.1 授权、流式传输等扩展特性,方便在云端对 Things 3 进行任务与信息管理。

AI与计算

Movk Nuxt Docs MCP 服务器

基于 Nuxt 4 的文档主题,内置 MCP 服务器,提供文档资源、工具,以及提示模板的标准化上下文服务,以供 LLM 客户端通过 MCP 协议访问。

开发者工具

Fray MCP 服务器

基于 Fray 的 MCP(Model Context Protocol)实现的后端服务器,将 payload 数据、WAF 指纹和 CVE 细节以工具形式暴露给 AI 助手调用,支持通过 JSON-RPC 与客户端通信,提供工具注册、资源管理和会话上下文能力,便于在 AI 工作流中进行上下文驱动的安全测试与结果分析。

桌面与硬件

Blogging Desktop Server (bDS) - MCP Backend

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具管理、提示模板渲染,以及与 LLM 客户端之间的 JSON-RPC 通信,支持多传输方式(包括 Standalone 的 stdio 服务器),并可自动配置到多种代理/模型工具。

AI与计算

Clippy MCP 服务器

基于 MCP 协议的后端服务,暴露 Clippy 的资源、工具和提示给 AI 客户端,通过 JSON-RPC 进行通信,支持文本与文件等上下文共享。

网页与API

HttpCat MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供资源与工具的注册、SSE传输的MCP服务端,以及多种认证方式(JWT、AK/SK、Open API签名)。通过 MCP 客户端(如 Claude、Cursor、CodeBuddy 等)以统一的JSON-RPC风格远程访问文件管理、统计与系统信息等能力,支持扩展的资源与工具。

开发者工具

nix-logseq-git-flake

基于 MCP 的服务器端组件,通过 logseq-cli 提供 MCP 服务器,实现资源管理、工具调用和 Prompt 渲染,为 LLM 客户端提供上下文信息和功能,支持 HTTP 与 STDIO 传输。

AI与计算

Solvr MCP 服务端

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及可渲染的提示模板,采用 JSON-RPC 与 LLM 客户端通信,支持通过标准输入输出(stdio)对接多种 AI 客户端插件与工作流。当前实现覆盖初始化、工具列表以及工具调用等核心 MCP 场景,并附带一个可运行的工具集(solvr_search、solvr_get、solvr_post、solvr_answer、solvr_claim)。

AI与计算

bun-actionhero

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具与提示模板的管理与对外交互,并通过 JSON-RPC 形式与 LLM 客户端进行上下文服务与能力调用,支持 WebUI、WebSocket 等传输方式的 MCP 服务端功能。

AI与计算

Motoko Context Lake MCP Server Suite

基于 Model Context Protocol (MCP) 的多服务器实现集合,提供资源/工具/提示模板等上下文服务,供 LLM 客户端通过 JSON-RPC 方式与 Batou、Library、Reports 等 MCP 服务器进行交互,支持聊天、文档库管理与报告存储等场景。

商业系统

go-invoice MCP 服务器

基于 Model Context Protocol (MCP) 的本地化后端服务器,提供资源、工具和提示模板等上下文能力,通过 JSON-RPC 与 Claude Desktop/Code 客户端通信,支持 HTTP 和 stdio 双传输,适配本地发票管理的 AI 场景。

AI与计算

GateFlow MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,提供对 HDL/SystemVerilog 相关资源、工具调用以及提示模板的标准化访问,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互。

AI与计算

Laravel Workflow MCP 服务器示例

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Laravel Workflow 的资源、工具与流程的 MCP 接口支持,允许 AI 客户端通过 JSON-RPC 向服务器发起启动工作流、查询状态等操作,并在 Laravel 应用内完成工作流调度与结果存储。

AI与计算

Zuraffa MCP 服务器

基于模型上下文协议(MCP)的后端服务,向大型语言模型客户端提供资源、工具和提示模板的上下文能力,通过 JSON-RPC 的方式进行请求/响应,并支持多种传输协议(如 STDIO、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AI与计算

ucon MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供统一的资源管理、工具注册与执行、Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端通信,用于单位转换、维度分析与上下文服务等场景。该实现将 ucon 的单位/维度计算能力暴露为可被 AI 客户端调用的后端服务。

开发者工具

Work-Chronicler MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供工作历史数据的资源、可执行工具和可渲染的提示模板,并通过 JSON-RPC 与客户端通信以实现上下文服务和功能扩展。

AI与计算

Zoho Analytics MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)的渲染等能力,允许通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持多传输协议(如流式 HTTP、StdIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。仓库内包含基于 Python 的 FastAPI 实现(以及可选的 Node.js 实现结构),实现完整的 MCP 服务端功能与实际数据源集成。

AI与计算

cms-symfony-sulu

基于 Symfony + Sulu CMS 的 MCP(Model Context Protocol)服务器实现,能向 LLM 客户端提供资源、工具、以及可渲染的 Prompt,支持通过 JSON-RPC 等协议进行交互并实现会话与权限等后端能力。该仓库不仅包含服务端核心组件,还提供了 MCP 工具、测试用例及集成示例,表明其为完整的 MCP 服务器实现,而非仅仅是客户端示例。

AI与计算

Cronitor MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源与工具的注册、对接外部数据源,并通过 JSON-RPC/stdio 方式与 MCP 客户端通信,以支持 LLM 场景下的上下文、工具调用与提示模板渲染。

AI与计算

unplugin-devpilot MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,整合插件注册、工具执行、资源管理与提示模板,通过 JSON-RPC 与浏览器客户端通信,支持 WebSocket 与 HTTP 传输,为 LLM 提供统一的上下文、工具调用和提示渲染能力,方便在开发环境中扩展自动化工具和上下文服务。

网页与API

Rancher MCP Server

基于 Model Context Protocol (MCP) 的后端服务端实现,面向大模型客户端提供 Rancher 多集群管理的资源访问、工具执行与提示模板渲染,通过 JSON-RPC 与客户端通信,支持 stdio、HTTP/SSE 等传输模式,提供可扩展的上下文和能力服务。

桌面与硬件

uiautomator2 MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,提供对 Android 设备的自动化控制工具、资源和提示模板的标准化对接,支持 STDIO/HTTP 传输与 JSON-RPC 通信,便于与 LLM 客户端集成。

AI与计算

Whenny MCP 服务器

基于 Model Context Protocol 的服务器端实现,向客户端暴露 Whenny 的日期与时间相关工具,支持通过 JSON-RPC 请求执行工具、注册与查询工具、以及基于时区的传输/时区上下文等功能,适用于将日期服务接入到 AI 客户端的上下文环境中。

AI与计算

Deephaven MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供 System/Enterprise 资源的托管与管理、工具的注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议以为 LLM 客户端提供安全、可扩展的上下文服务。

AI与计算

Planet MCP Server

基于 Model Context Protocol 的本地 MCP 服务器实现,提供对 Planet API 的上下文访问、工具调用与提示渲染能力,帮助大语言模型在本地环境中高效地与 Planet 数据和功能交互。

开发者工具

Grafema MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型(LLM)客户端提供资源托管、工具注册与执行、以及 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多传输协议(如 StdIO、SSE、WebSocket)进行安全、可扩展的上下文服务交互。

AI与计算

PySpark MCP Server

基于 Model Context Protocol 的 Spark 后端实现,提供对 Spark SQL、计划信息与元数据的统一访问接口,供大模型(LLM)通过 MCP 客户端进行调用与分析。

AI与计算

Yanger 模型上下文服务端

基于模型上下文协议的后端实现,提供资源管理、外部工具注册与执行以及对外暴露的工具集合,支持通过标准化的 JSON-RPC 方式与客户端进行对话式上下文交互。

开发者工具

virtme-ng MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以统一的 JSON-RPC 形式暴露内核构建、配置、运行与测试等工具,帮助自动化地进行内核开发与验证流程。

AI与计算

Whimbox-MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器端实现,作为 Whimbox 的后端服务,通过 JSON-RPC 提供资源/工具(Tasks/宏相关接口)等能力给大语言模型客户端调用,支持健康检查、嵌入式工具渲染与多传输协议(如 streamable-http)。

开发者工具

Jenkins MCP Server Plugin

基于 Model Context Protocol (MCP) 的 Jenkins 服务端实现,提供对外暴露的工具、资源与提示等上下文能力,支持通过 JSON-RPC 进行通信,包含 SSE、流式等传输端点以及对 Jenkins 实例的会话与能力声明管理。

AI与计算

Memo MCP 服务端实现

一个基于 Charm KV 存储的 MCP 服务器实现,提供资源、工具、和提示模板等功能,供对话式 AI 客户端通过 JSON-RPC 与后台进行上下文交互与操作执行。当前实现通过标准输入输出(stdio)传输进行 JSON-RPC 的通信。

AI与计算

tempo-mcp

基于模型上下文协议(MCP)的服务器端实现,向大型语言模型客户端提供 Tempo 区块链的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持多传输协议与严格的会话与安全机制。

AI与计算

Composter MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供通过 API 访问组件库资源、暴露工具以供 AI 助手调用、并支持以 MCP JSON-RPC 形式与客户端进行交互的后端服务。

开发者工具

Playwright 自动化 MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多传输模式(如标准输入输出)。该服务器用于为 Playwright + Cucumber + TestNG 等测试框架提供统一的上下文服务和智能代码生成功能。

AI与计算

Polymarket MCP 服务器

基于 Model Context Protocol 的后端服务器,向 LLM 客户端以标准化 JSON-RPC 提供资源、工具与提示模板,并实现会话管理、认证与多传输协议扩展。

AI与计算

lkr CLI - Looker MCP 服务器

结合 Looker SDK 提供 CLI 工具,并内置 MCP 服务器为 LLM 客户端提供 Looker 上下文和功能。

AI与计算

SchemaCrawler AI MCP Server

提供数据库 schema 信息和功能给 AI 客户端,支持 AI 调用 SchemaCrawler 工具进行数据库探索和分析。

生产力应用

TaskNote Bridge Swift MCP 服务器

将 Apple Notes 和 Things 3 集成到大语言模型客户端的 MCP 服务器。

AI与计算

DigitalOcean MCP 服务器

通过 Model Context Protocol (MCP) 连接 AI 客户端与 DigitalOcean 资源,实现智能化的云管理。

AI与计算

Alation 数据目录 MCP 服务器

将 Alation 数据目录的元数据和功能以标准 MCP 协议暴露给 LLM 客户端的应用后端。

AI与计算

Dubbo MCP 服务适配器

使Dubbo应用具备MCP能力,将Dubbo服务自动转换为LLM可调用的工具。

生产力应用

Google 服务 MCP 服务器集

通过 MCP 协议,为 AI 助手提供访问和管理 Google 日历、Gmail 和 Drive 的能力。

AI与计算

MCP PDF 文档知识库

一个基于MCP协议的PDF文档知识库服务器,支持上传、处理和检索PDF内容,可与AI工具集成。

开发者工具

Azure DevOps MCP 工具集

通过MCP协议向AI/LLM提供访问Azure Boards和Pipelines的功能。

生产力应用

TickTick MCP Server

增强 TickTick 工作流程的 MCP 服务器,使 AI 助手和兼容 MCP 的应用能更精确地管理和过滤你的任务。

生产力应用

Quip MCP Server (Python)

基于 Model Context Protocol (MCP),提供访问 Quip 电子表格数据及相关工具的后端服务。

开发者工具

Jira MCP 连接器

一个基于 MCP 的 Go 语言应用后端,使 AI 助手(如 Claude)能够与 Atlassian Jira 进行交互和管理任务。

AI与计算

CloudGlue MCP 服务器

连接 CloudGlue 平台与 AI 助手,为 LLM 提供视频内容理解、分析和管理工具。

商业系统

Smartlead MCP 服务器

将 Smartlead API 功能以 Model Context Protocol (MCP) 标准暴露给 AI 助手和自动化工具。