返回首页

"自动化工作流" 标签

33 个结果

标签搜索结果

商业系统

Harold Memory Sync MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,用于 Harold 的知识管理与任务协同。该服务器实现了多项工具(如记忆日志、事实库、警报、阻塞、事件、CRM 互动与任务等),通过符合 MCP 的 JSON-RPC 风格接口暴露资源、工具执行和提示渲染能力,支持 STDIO 传输以便与客户端 LLM 会话进行交互,并集成 Supabase 作为 CRM 数据源,提供会话、关系管理与异步同步能力。

AI与计算

Claude Code Misc - Meta Prompter MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Prompt 的结构化评估能力,通过标准化工具接口向 LLM 客户端暴露评估功能,并通过标准输入/输出的传输通道(如 STDIO)进行 JSON-RPC 通信。

AI与计算

Awesome Agent Skills MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行以及 Prompts 渲染,并通过 JSON-RPC 与客户端通信。

AI与计算

tt-decomp Phase5 MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,面向 RockStar Table Tennis 的反汇编/去编译数据,提供资源管理、工具注册与执行、以及 Prompt 模板相关上下文服务,支持通过 JSON-RPC 与客户端(LLM)交互并可扩展传输通道。当前实现包含完整的 MCP 服务端代码、工具集定义与服务器启动逻辑,用于向 LLM 客户端暴露资源、工具和数据等能力。

AI与计算

QueryWeaver MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,作为 QueryWeaver 的 MCP 服务器,通过标准化的 MCP HTTP 面向 LLM 客户端提供资源托管、工具注册与执行,以及 Prompt 模板渲染等上下文服务,并通过 JSON-RPC 进行通信与会话管理。

网页与API

Kindly Web Search MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器,实现网页搜索结果的上下文化内容提取与渲染,支持 Serper、Tavily、SearXNG 三大提供者,并对 StackExchange、GitHub、Wikipedia、arXiv 等站点进行结构化的 Markdown 渲染与备用 HTML 加载,便于将结果与上下文在对话式 LLM 中使用。

开发者工具

Tekla MCP Server

基于 Model Context Protocol (MCP) 的 Tekla Structures 服务端实现,提供标准化的上下文信息、工具执行与模板渲染等能力,通过 JSON-RPC 与客户端通信,供大模型/LLM 客户端获取 Tekla 模型的上下文数据、执行外部功能及渲染提示模板。

AI与计算

LUCA CSS MCP Server

基于模型上下文协议(MCP)的服务器端实现,暴露 LUCA CSS 引擎工具给 AI 编码代理,通过标准 JSON-RPC 的 stdin/stdout 通信执行 css_compile、css_preflight、css_scan 等任务,并将实际计算与分析委托给 LUCA API 提供。

AI与计算

OneNote MCP Server (Go 实现)

基于 Model Context Protocol (MCP) 的 OneNote 后端服务器实现,提供资源管理、工具注册、提示模板渲染,并通过 JSON-RPC/SSE/STDIO 等方式与 MCP 客户端通信;内置 Microsoft Graph API 集成、OAuth2 PKCE 验证、Notebook 级授权、缓存机制和实时进度通知,支持 STDIO 与 HTTP 模式部署。

AI与计算

workz 服务器端 MCP 实现

基于 Model Context Protocol (MCP) 的服务器实现,为 AI 客户端提供对 Workz 的资源、工具与提示模板等上下文信息,采用 JSON-RPC 2.0 通过标准输入输出(stdio)进行通信,核心功能包括管理工作树、同步依赖、以及暴露用于 AI 调用的工具集。

AI与计算

openllm-func-call-synthesizer MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务端实现,提供资源管理、工具注册与执行,以及基于模板的 Prompt 渲染等能力,配合示例服务器实现了完整的后端工具链与测试用例,适用于向 LLM 客户端暴露标准化的上下文与功能。

开发者工具

CodeDB MCP 服务器

基于 Model Context Protocol 的高性能 MCP 服务器,使用 Zig 实现,提供资源管理、工具执行、Prompts 渲染等能力,并通过 JSON-RPC 与客户端通信,支持多种传输模式,面向 LLM 客户端提供上下文与功能服务。

AI与计算

AutoDocMcpServer

基于 Model Context Protocol (MCP) 的服务器实现,作为后端服务向 LLM 客户端提供上下文和功能,核心能力包含资源、工具与提示模板的托管与执行,通过标准输出(stdio)与客户端进行通信,并可从本地 Git 仓库分析提交生成结构化的 CSV 报告。该实现通过 MCP 服务框架注册工具,暴露以日期区间为输入的报告生成功能、将结果写入本地文件系统、并提供服务器状态检查能力。

开发者工具

auto-fix-workflow

基于 Model Context Protocol (MCP) 的后端服务器,为 MCP 客户端(如 LLM)提供统一的上下文资源、工具执行和提示模板渲染能力,用于自动化的 GitHub 问题管理、代码修复工作流,并支持多种传输协议与会话能力。

AI与计算

AI Agent Kit MCP Server

基于 Model Context Protocol (MCP) 的通用后端服务,实现向 LLM 客户端暴露 Agents、Chains、Scaffolds 等资源和工具,支持通过 MCP 协议进行资源读取、工具调用与提示模板渲染等核心功能,采用标准化的 JSON-RPC 风格通信与多传输能力(当前以 STDIO 作为传输实现),用于为 LLM 应用提供可扩展的上下文服务框架。

网页与API

Dex MCP 服务器集合

Dex 提供基于 Model Context Protocol (MCP) 的多服务器后端合集,作为应用后端为 LLM 客户端提供资源、工具、提示模板等上下文信息与功能。核心通过 JSON-RPC 进行通信,服务器端负责会话管理、能力声明,并支持多种传输协议与插件化的 MCP 服务,例如 onboarding、日历、 Granola、职业与简历、工作管理、能力自我升级等模块。

AI与计算

Branch Monkey MCP Server

基于 MCP 的后端服务,为 Claude Code 提供 Branch Monkey 的任务管理、工具与版本等能力,通过 MCP 协议向 LLM 客户端暴露资源与功能。

网页与API

awaBerry MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供设备上下文、工具调用与执行结果等能力;支持多种传输协议(STDIO、HTTP、Cloudflare Worker 等),通过 JSON-RPC 与客户端通信,管理会话、能力声明与工具执行,用于远程设备管理、文件操作、数据库查询和命令执行等场景。

开发者工具

JAGENTS MCP 服务器集合

基于 Model Context Protocol (MCP) 的模块化 MCP 服务器集合,提供 Agents、Skills、Workflows 与 Rules 的标准化上文接口,实现资源管理、工具注册与执行、以及 Prompts/模板渲染等功能,面向 LLM 客户端提供上下文与能力服务。

AI与计算

FreeScout MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,面向 FreeScout 工单管理、分析与自动化工作流。通过 JSON-RPC 与客户端交互,提供资源、工具和提示模板的托管、执行与渲染能力,支持与 Git、PR 流程集成的端到端场景。

AI与计算

GTM Wizard MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 AI 代理提供资源、工具、提示等上下文服务,并通过 JSON-RPC 与客户端交互,支持资源管理、工具执行与提示渲染等核心能力。

AI与计算

Google Docs MCP 服务端

基于 Model Context Protocol 的后端服务,实现对 Google Docs 的资源管理、工具注册与执行,以及 Prompt 模板渲染的 MCP 服务器。通过 JSON-RPC 风格的请求与客户端交互,提供文档读取/创建/编辑、分析、搜索等能力,并支持将 MCP 工具暴露给 AI 助手进行调用。

AI与计算

SUMO-MCP-Server

基于 Model Context Protocol 的 MCP 服务器,桥接大语言模型(LLM)客户端与 Eclipse SUMO 交通仿真平台,提供资源、工具、提示模板等统一访问接口,通过 JSON-RPC 进行通信,支持多种传输方式(如标准输入输出、SSE、WebSocket),实现对 SUMO 的离线与在线控制、工作流自动化等功能。

开发者工具

Metorial (MCP服务集成平台)

Metorial是一个开源的AI代理集成平台,通过Model Context Protocol (MCP) 标准,使AI模型能够轻松连接数千个外部API、数据源和工具。

开发者工具

AgentSDK

AgentSDK是一个Go语言企业级AI Agent开发框架,具备MCP服务器功能,可将内置或自定义工具通过标准MCP协议暴露给LLM客户端,提供上下文和功能。

开发者工具

Packmind MCP 服务器

Packmind MCP 服务器是为AI编程助手提供团队编码标准、最佳实践和操作手册的上下文服务后端,支持创建、管理和部署代码规范与自动化工作流。

生产力应用

Bassi AI 助理

基于 Claude AI Agent SDK 构建的个人智能助理,集成文件、Web 搜索、Python 自动化、Microsoft 365、浏览器和数据库等多种功能,支持命令行和 Web UI 交互。

开发者工具

Seclab Taskflow Agent

一个MCP赋能的多智能体框架,内置CodeQL、内存缓存等MCP服务器,支持可脚本化的智能体工作流,用于安全研究和漏洞分类。

开发者工具

BMAD MCP Server

这是一个基于Model Context Protocol (MCP) 的AI辅助服务器,它统一托管并提供BMAD方法论中的专家AI智能体和自动化工作流,助力开发者在任何项目中高效使用AI助手。

AI与计算

Flow Nexus

Flow Nexus是一个基于MCP协议构建的竞争性智能体平台,为开发者提供AI智能体部署、沙盒环境、神经网络训练及商业化能力。

AI与计算

Ollama 模型上下文协议 (MCP) 服务器

将本地 Ollama 模型与外部功能通过 MCP 协议暴露给大型语言模型 (LLM) 客户端。

开发者工具

Taiga MCP Bridge

Taiga MCP Bridge 是一个连接 Taiga 项目管理平台和 MCP 协议的桥梁,旨在为 AI 工具提供项目上下文和操作能力。

AI与计算

GIMP AI助手 (GIMP-MCP)

通过模型上下文协议(MCP)连接AI模型与GIMP,实现图像编辑的智能化扩展。