返回首页

"自动化工具" 标签

62 个结果

标签搜索结果

AI与计算

MD Planner MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供资源、工具、以及提示模板等上下文服务,支持多传输通道(HTTP、STDIO 等)与会话管理,具备资源托管、工具注册与执行以及内容渲染的完整后端能力。

AI与计算

Solaya MCP 服务器(QEMU后端)

基于 Model Context Protocol (MCP) 的服务器实现,用于通过 MCP 客户端以标准化方式向 LLM 提供 Solaya 内核在 QEMU 虚拟机中的上下文信息和功能。当前实现包含对 QEMU/Solus 的管理工具(启动/停止 QEMU、发送命令、构建内核、运行系统测试等),并通过 Tool Router 暴露一系列可调用的工具,支持与客户端进行 JSON-RPC 交互。该服务器通过标准输入输出(stdio)传输与 MCP 客户端通信,提供会话管理、能力声明与工具清单等能力。

开发者工具

Lousy Agents MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化方式暴露资源、工具与提示模板等能力,通过 JSON-RPC 进行通信,支持多传输通道并负责会话管理与能力声明,适配 Copilot 相关工作流的上下文服务与外部功能访问。

AI与计算

UniFi MCP 服务端(Go 实现)

基于 Model Context Protocol (MCP) 的后端服务器,将 UniFi Network 的运维操作暴露为标准化的工具集成,能通过 JSON-RPC 与 LLM/代理进行交互,支持标准输出(stdio)和 HTTP 传输,提供会话管理、能力声明与多样传输协议的 MCP 服务器实现。

网页与API

tweetsave-mcp

基于 Model Context Protocol(MCP)的后端服务器实现,提供从 Twitter/X 获取推文、获取线程、将推文转换为博客等能力的工具集合,并通过标准 MCP 传输(stdio、SSE、HTTP)对外暴露,供大模型客户端以统一方式获取上下文信息与能力。

开发者工具

agnt

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 prompts,用于支持 LLM 客户端以统一方式获取上下文信息和调用外部功能。

AI与计算

Hello-Claw 发行版 MCP 服务器框架

基于 Claude Agent SDK 的多工具 MCP 服务器实现与运行框架,提供 Slack 集成、任务调度、网页/浏览器、搜索、存储与记忆、生成式内容工具等一整套成熟的 MCP 服务器集合,支持资源管理、工具注册/执行、Prompt 模板渲染,以及通过 JSON-RPC 风格的通信与客户端交互(通过 Claude Agent SDK 的 MCP 服务器实现)。

AI与计算

Furman MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt/上下文相关支持,专为让大语言模型(LLM)以标准化方式访问文件资源、执行外部工具(如 S3/SFTP 操作)而设计。服务器通过 JSON-RPC 与客户端通信,支持在标准输入/输出(STDIO)传输上运行,便于与 AI 客户端(如 Claude 等)进行无缝对接。

网页与API

MCP Claude Plugins for MSP

基于 Model Context Protocol 的 MCP 服务器实现集合,提供对厂商 API 的工具调用、资源管理和 Prompts 渲染等能力,支持通过 JSON-RPC 与 Claude/LLM 客户端进行交互。

开发者工具

CSharpMCP Roslyn-based MCP Server

基于 Model Context Protocol 的 MCP 服务器,利用 Roslyn 提供对 C# 项目的语义分析与工具能力,并通过 JSON-RPC 方式与 LLM 客户端交互,支持标准化的资源管理、工具执行与提示渲染,适用于向 LLM 客户端提供上下文信息与分析能力的后端服务。

AI与计算

SideButton MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向大语言模型(LLM)客户端提供资源、工具注册与执行、以及可自定义的 Prompt 模板等上下文能力,并通过 JSON-RPC/ SSE/ stdio 等传输协议进行交互,适用于在浏览器、终端或应用中集成上下文服务。

AI与计算

Monero MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 MCP 客户端暴露对 Monero 钱包的资源、工具与提示模板的访问与执行能力;通过 JSON-RPC 与客户端通信,并支持多种传输模式,提供安全、可扩展的上下文服务框架。

网页与API

Multi-Cloud DevOps MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理工具与远程执行能力,面向 LLM 客户端通过 JSON-RPC 进行交互,提供跨云(AWS、Azure、Hetzner Cloud)资源访问与命令执行能力的服务器实现。

AI与计算

PR Watcher MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,为 LLM 客户端提供对 PR 监控、Cursorbot/CI 失败等资源和工具的统一访问,通过 JSON-RPC 与客户端通信,支持多种传输方式(如 StdIO),实现了对工具的注册与执行能力,以便智能代理在 Cursor 等场景中调用并获取信息。

AI与计算

Astronomer Airflow MCP 服务端

基于 MCP(Model Context Protocol)的 Airflow 后端实现,提供标准化的资源、工具和提示模板的访问接口,支持会话管理、身份认证、跨传输协议通信,并通过 JSON-RPC 风格的请求/响应与 LLM 客户端交互。

网页与API

CBrowser MCP 服务器

基于 Model Context Protocol 的服务器实现,用于向 LLM 客户端以标准化的 JSON-RPC 方式提供浏览器资源、工具执行能力与提示模板,并支持资源管理、工具注册、提示渲染以及会话/状态管理等多模态上下文服务。该实现把浏览器自动化能力暴露为 MCP 工具集,方便 Claude Desktop/Code 等 MCP 客户端接入和协同工作。

AI与计算

CiscoU RADKit MCP Server

基于 FastMCP 的后端 MCP 服务器,提供对 Cisco RADKit 服务的设备查询、属性获取与命令执行等工具,以 JSON-RPC 风格与客户端通信并支持多种传输方式(stdio、SSE、HTTP)。

AI与计算

QuickCall Integrations MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端以标准化方式提供资源、工具和提示模板的访问与执行能力,支持身份认证、GitHub/Slack 集成、资源读取以及多种传输协议的上下文服务。

开发者工具

Spacelift Intent MCP Server

一个基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,作为后端上下文服务向 LLM 客户端提供资源管理、工具执行和 Prompt 渲染等能力。服务器通过 MCP 标准接口处理来自 LLM 的请求,管理会话与能力声明,并使用 SQLite 持久化资源状态与依赖关系,支持通过 stdio 传输渠道与客户端进行通信,便于在本地或集成开发环境中快速原型与迭代。

商业系统

inFlow Inventory MCP Server

基于 Model Context Protocol 的后端服务器,将 inFlow Inventory API 暴露为统一的上下文服务,支持资源读取、工具执行与上下文模板渲染,供大语言模型客户端通过 MCP 进行交互和集成。

AI与计算

MCP 数据库后端服务器(MCP Server for Multi-Database Connector)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的统一管理与渲染,并通过 JSON-RPC/REST API 与客户端通信。该仓库实现了支持多数据库连接(SQL Server 与 PostgreSQL)、工具注册与执行、提示模板及上下文管理的完整后端,具备 STDIO 与 HTTP/API 传输模式、会话管理、缓存、并发查询等核心能力,适用于向大语言模型(LLM)客户端提供统一的上下文服务。

AI与计算

Debug Electron MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大模型客户端以标准化方式提供 Electron 应用的上下文、资源、工具与提示模板,具备 JSON-RPC 通信、会话管理,并可通过 Stdio、SSE、WebSocket 多种传输协议进行交互;集成 Chrome DevTools Protocol (CDP) 实现对 Electron 应用的自动化与调试支撑。

网页与API

Scrapfly MCP Server

基于 Model Context Protocol(MCP)的后端服务器,实现对资源、工具和提示模板的注册、管理与执行,提供给大型语言模型(LLM)客户端实时、可扩展的网页上下文服务与数据访问能力。

AI与计算

pty-mcp-server

基于 Haskell 的 Model Context Protocol 服务器实现,提供 PTY 会话托管、工具执行与提示渲染等能力,通过标准输入输出与客户端进行 JSON-RPC 通信,支持 AI 驱动的系统交互、自动化与远程操作场景。

AI与计算

NTS_MCP_FS 服务器端

基于模型上下文协议(MCP)的企业级后端服务器实现,提供资源管理、工具注册与执行、提示模板渲染等 MCP 服务,通过 JSON-RPC 风格与 LLM 客户端通信,支持会话隔离、能力声明以及多传输协议的上下文服务框架。

网页与API

poly-git-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供对 GitHub、GitLab、Gitea、Bitbucket 等代码托管平台的工具访问能力,面向向量化的大语言模型客户端提供统一的上下文和功能接口。

AI与计算

Douyin MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供抖音视频的解析、无水印下载、信息查询等工具和资源,让大语言模型客户端以标准化方式访问并执行相关功能。

开发者工具

Unity MCP Vibe

在 Unity 编辑器内原生实现的 MCP 服务器,提供 Resource、Tools、Prompts 等模块的后端能力,允许通过 JSON-RPC 风格的命令注册与执行,与 LLM 客户端进行上下文和功能交互,支持多种传输方式(如 Stdio、SSE、WebSocket)并包含安全与生命周期管理。

开发者工具

DevDuck

DevDuck是一个自适应AI代理,能够动态加载工具、自修复,并支持通过MCP、TCP、WebSocket、IPC等多种协议提供上下文服务和功能。

AI与计算

XMRT.io AI生态协调中心

XMRT.io AI生态协调中心是一个基于Model Context Protocol (MCP)构建的后端服务,为LLM客户端提供实时上下文、工具调用及多AI智能体交互能力。

AI与计算

ComputeMate AI MCP 服务器

ComputeMate AI 提供一个基于MCP协议的后端服务,托管并管理丰富的功能工具和设备信息,赋能LLM客户端执行自动化任务。

AI与计算

ExoMind:AI认知架构与多模态MCP服务器集成

ExoMind是一个AI驱动的认知架构开发环境,通过集成多个MCP服务器,为LLM提供强大的上下文管理、工具调用及多模态交互能力。

AI与计算

Pica MCP 服务器

Pica MCP服务器通过标准化接口将大型语言模型与100+第三方服务无缝集成,提供工具调用和代码生成能力。

AI与计算

CheQQme数据中心MCP服务器

为LLM客户端提供CheQQme数据中心的结构化资源,支持AI语义搜索与自动化。

开发者工具

Airlift MCP 服务器框架

基于 Airlift 框架构建的 MCP 服务器实现,提供上下文信息、工具和 Prompt 管理,支持 LLM 客户端通过 JSON-RPC 协议进行交互。

开发者工具

Godot GDScript MCP 服务器

为Godot项目提供GDScript代码分析、样式校验、自动化修复和项目结构洞察的上下文服务。

开发者工具

Systems-Manager

跨平台系统管理工具,通过MCP服务器向AI和自动化系统提供系统维护、应用管理、优化和统计查询功能。

商业系统

Smartsheet MCP 集成服务器

通过MCP协议,为LLM客户端提供访问Smartsheet表格数据的工具和功能。

AI与计算

MCP Server

AI驱动的后端框架,通过标准协议为大模型提供工具执行、上下文信息和提示模板服务。

开发者工具

Roblox Studio MCP 服务器

将 Roblox Studio 与 LLM 客户端连接,提供上下文和工具调用能力。

AI与计算

ServiceScan MCP服务器

提供网络服务扫描能力的MCP服务器,支持大语言模型通过标准接口调用扫描功能。

通信与社交

Facebook Page MCP 工具服务器

连接Facebook Page,将页面操作和数据分析能力封装为AI可调用的MCP工具。

网页与API

Crawl4ai MCP Server

基于 Spring Boot 的 MCP 服务器,提供网页爬取工具,通过 Crawl4ai API 为 LLM 应用赋能。

桌面与硬件

MCP Windows Server

Windows MCP服务器,提供窗口管理、媒体控制、剪贴板、屏幕截图等功能,使LLM能够与Windows操作系统进行交互。

网页与API

OpenAPI MCP Server

通过Model Context Protocol (MCP) 将任何OpenAPI规范转换为AI助手可用的工具,实现API的无缝集成。

网页与API

Cursor AI 网页抓取 MCP 服务器

一个为 Cursor AI 提供网页抓取能力的 MCP 服务器,包含 XPath 生成、页面内容获取和 Scraper 代码生成等工具,辅助用户更便捷地创建网络爬虫。

开发者工具

khivemcp

Python框架,简化基于FastMCP的MCP服务器构建,支持配置驱动、装饰器工具和动态加载。

网页与API

AutoBrowser MCP Server

AutoBrowser MCP Server是一个基于Model Context Protocol的服务器,为LLM应用提供浏览器自动化能力,支持网页浏览、元素操作和信息获取等工具。

网页与API

Puppeteer MCP服务器

基于Puppeteer的MCP服务器,提供网页自动化工具,使LLM能够与网页进行交互。

开发者工具

LLM代码生成实验室

LLM代码生成实验室是一个综合工具包,旨在通过模型上下文协议(MCP)服务器,辅助开发者进行AI代码生成和规则定制。

AI与计算

Swarmonomicon MCP服务器

Swarmonomicon是Madness Interactive项目的核心组件,旨在作为多代理AI系统的中央神经系统,提供MCP服务器功能。

开发者工具

Nx Console MCP Server

为LLM应用提供Nx工作空间的上下文信息和代码生成能力的MCP服务器实现。

网页与API

Webtools MCP Server

提供网页分析和处理工具的MCP服务器,支持HTML获取、页面内容提取、截图和性能分析等。

开发者工具

Progmo MCP Server

Progmo MCP Server 是一个基于 MCP 协议的后端,为 LLM 客户端提供知识管理、代码审查和测试管理等工具和服务。

开发者工具

mcp browser automation

该项目是一个基于 Model Context Protocol (MCP) 的服务器实现,通过 Playwright 自动化浏览器操作,并向 LLM 客户端提供浏览器控制工具和资源访问能力。

桌面与硬件

mcp server restart

该项目是一个MCP服务器,用于重启运行在macOS上的Claude桌面应用,提供查询状态资源和重启工具。

数据库与文件

mcp server file modifier

该MCP服务器提供文件修改功能,允许通过工具调用对文件进行添加、替换和删除内容操作。

开发者工具

simulator mcp server

该项目实现了一个 MCP 服务器,允许通过标准化的 MCP 协议远程控制 iOS 模拟器,提供启动、关闭、安装应用和启动应用等功能。

开发者工具

GitHub Repository Manager

一个MCP服务器,通过工具调用GitHub API,支持创建和更新GitHub仓库,包括仓库名、描述、标签和网站等信息。

开发者工具

Cloud Foundry Butler

Cloud Foundry Butler 和 Hoover MCP 服务器提供工具,通过 Claude 桌面与 Cloud Foundry 平台进行自然语言交互,简化运维操作和信息获取。

开发者工具

Screenshot Server

Screenshot Server是一个MCP服务器实现,通过Puppeteer提供网页和本地HTML文件的屏幕截图功能。

开发者工具

Neurolora

Neurolora MCP服务器提供代码分析、代码收集和基础服务安装等工具,增强LLM的代码理解和操作能力。