返回首页

"工具编排" 标签

28 个结果

标签搜索结果

开发者工具

RC Engine MCP 服务器端框架

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、并渲染/提供 Prompt 模板等能力。服务器通过 JSON-RPC 与客户端通信,内置会话管理、能力声明,并支持多种传输协议(如 Stdio、SSE、WebSocket),可在 IDE 中以 MCP 服务器的形式集成,为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Tengu MCP Server — Claude Copilot for AI-assisted Pentesting

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的标准化暴露,以 JSON-RPC 形式向 LLM 客户端提供上下文与功能。*

AI与计算

claude-code-multi-llm MCP 服务端

基于 Model Context Protocol 的后端服务,实现资源、工具注册与执行、提示模板渲染等 MCP 核心能力,负责对接多模型提供商并通过中文/英文提示进行成本感知路由,将子任务分发给最合适的模型以提升 Claude Code 场景的效率与成本控制。

AI与计算

Jaato MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端通信,支持本地 IPC 与 WebSocket 等传输方式,面向 LLM 客户端提供可扩展的上下文服务。

AI与计算

Qurio MCP Server Backend

基于 Model Context Protocol 的 MCP 服务器实现,提供资源/工具/ prompts 的托管与管理,并通过 JSON-RPC/流式传输与 MCP 客户端交互,支持 SSE、Stdio、WebSocket 等传输形式,具备会话管理与扩展能力的后端服务器实现。

AI与计算

GenAI MCP 服务器示例套件(EKS 实现)

基于 Model Context Protocol 的 MCP 服务器实现集合,提供收入/就业验证、地址验证、图像处理和简单计算等服务端示例,并演示与 MCP 客户端的集成与调用方式。

AI与计算

OpenCode Spec Kit MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器实现框架,提供资源管理、工具注册与执行、Prompt 模板渲染,以及多传输协议支持,面向大模型客户端提供标准化的上下文与功能服务。

AI与计算

Climux MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供对外暴露的工具、资源与提示模板,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输方式,作为 LLM 客户端的上下文与功能提供者。

AI与计算

ToolWeaver MCP Server

一款基于 Model Context Protocol(MCP)的后端服务器框架,向大语言模型客户端以标准化方式提供资源管理、工具注册/执行以及提示模板渲染等功能,支持 JSON-RPC 通信、会话管理、能力声明,并可通过多传输协议(如 Stdio、SSE、WebSocket)进行扩展与部署。

AI与计算

Continuous-Claude MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端实现集合,提供资源、工具、Prompt 模板的标准化对外访问与渲染,涵盖会话管理、MCP 代码执行、工具注册与执行以及多种传输方式的支持,面向对话式大模型客户端提供上下文和功能服务。该仓库包含用于 MCP 的服务器实现、工具包装、以及面向 LLM 客户端的 context 图谱查询与持续性能力,适合作为一个可运行的 MCP 后端生态系统。

AI与计算

CyberStrikeAI MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册/执行、Prompt 模板渲染以及面向 LLM 客户端的上下文服务,支持 stdio 与 HTTP 等传输、外部 MCP 联邦等扩展能力,旨在为渗透测试场景中的 AI Copilot 提供标准化的上下文与执行能力。

网页与API

FrevaGPT MCP后端服务

基于Model Context Protocol的AI助手后端,提供RAG检索和代码执行工具服务

开发者工具

Obot

Obot 是一个开源的MCP网关和AI平台,提供统一的上下文管理、工具集成和LLM交互界面,支持MCP服务器的部署和管理。

开发者工具

Open Edison

Open Edison 是一个安全的 Model Context Protocol (MCP) 控制面板和代理服务器,通过强化安全策略、监控AI代理交互、并管理资源、工具和提示模板,帮助降低数据泄露风险。

AI与计算

Asynchronous Component Base (ACB) - MCP服务器

ACB是一个模块化的Python框架,提供一个全面的Model Context Protocol (MCP) 服务器,使AI应用能发现、交互并编排其组件(如动作、适配器、服务)。

AI与计算

ToolUniverse:AI科学家工具生态系统

赋能AI科学家的ToolUniverse提供标准化接口,让LLM调用超600种科学工具,并集成MCP服务器提供上下文服务。

AI与计算

Dragonfly MCP服务器

基于FastAPI构建,提供39个开箱即用工具的MCP服务器,支持LLM调用外部功能、数据访问和配置管理。

AI与计算

Mai 上下文服务框架

Mai是一个全面的上下文服务框架,包含多个独立MCP服务器及一个MCP代理,为LLM应用提供资源管理、工具调用和Prompt模板服务。

AI与计算

Olane 超智能网络基础设施

Olane 是一个点对点、安全的 AI 网络基础设施,能够托管和管理资源、工具、Prompt,并通过 MCP 协议与 LLM 客户端通信。

AI与计算

BeemFlow

开源的AI原生工作流协议、运行时和工具注册中心,通过MCP协议连接LLM与自动化能力。

AI与计算

MCP服务示例项目

演示如何基于Model Context Protocol (MCP) 构建、配置和使用可集成大型语言模型的工具服务。

开发者工具

Modular MCP Server Framework

一个可配置的框架,用于将命令行工具作为 MCP 工具提供给 LLM,实现上下文增强。

AI与计算

Sauropod

Sauropod 是一个本地AI代理平台,通过MCP协议连接和管理多种AI模型及工具,提供可扩展的上下文服务框架。

AI与计算

Smart MCP Server

智能上下文MCP服务器,根据用户情境动态选择和编排工具,集成Gemini API,支持复杂工作流,为LLM提供上下文服务。

网页与API

Atrax MCP 代理服务器

Atrax 是一款 MCP 代理服务器,可以将多个 MCP 服务器聚合成一个统一的接口,为 LLM 客户端提供便捷的上下文服务。

AI与计算

Skynet-MCP Agent网络

构建分层AI代理网络的框架,实现了模型上下文协议MCP,用于LLM应用中的工具和资源管理。

开发者工具

MCPSX 命令行工具

MCPSX 是一个命令行工具,用于管理和运行 MCP 服务器及工具,简化 MCP 环境的配置和使用。

开发者工具

MCP Dockmaster

MCP Dockmaster 是一个用于安装、管理和监控 MCP 服务器的工具,为 LLM 应用提供上下文服务。