返回首页

"多代理协作" 标签

23 个结果

标签搜索结果

AI与计算

Live Memory MCP 服务器

基于 Model Context Protocol 的多代理内存管理后端,用于向大语言模型客户端提供上下文、工具与模板,并通过图谱桥接实现长期记忆整合,支持多种传输与 Web 界面访问。

AI与计算

AgentChatBus

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具、提示等上下文服务,通过 JSON-RPC 与 LLM 客户端通信,支持 SSE/stdio/WebSocket 等传输,并实现会话管理、持久化存储与内置网页控制台。

AI与计算

MCP Hub

一个自托管的 MCP 网关后端,统一资源、工具和提示模板的上下文服务,通过 JSON-RPC 向 LLM 客户端提供标准化的上下文、工具执行和提示渲染能力。

AI与计算

VitalIQ MCP Server – Agentic AI Nurse

基于 Model Context Protocol (MCP) 的服务器实现,暴露 5 个AI nurse相关工具(分析生命体征、知识库查询、HITL 提问、风险评估、药物提醒),供外部LLM客户端通过JSON-RPC/管道方式调用与协作,实现统一的上下文服务、资源管理与工具执行能力。

AI与计算

DuarteOS MCP Server Suite

基于 Model Context Protocol(MCP)的多后端服务器实现集合,使用 FastMCP 提供对接 LLM 客户端的资源管理、工具执行、数据分析与自动化能力。仓库中实现了多台服务器(如任务管理、会话记忆、输入分析、网页抓取、数据分析、自动化工具等),覆盖资源/工具/提示等核心模块,支持通过 JSON-RPC 风格的请求与响应进行交互,便于在 Claude Code 等环境中为 LLM 客户端提供统一的“上下文与能力服务”后端。

网页与API

corvid-agent MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 HTTP/WebSocket/OpenAPI 等协议对外暴露接口,支持与其他 MCP 客户端/服务器的对接与多模型协作。

AI与计算

AgentChatBus

基于 Model Context Protocol(MCP)的后端服务器实现,实现资源、工具、提示模板的统一管理与渲染,并通过 JSON-RPC/MCP 接口向 LLM 客户端提供上下文与能力,支持 HTTP+SSE 传输以及 stdio 模式的后端交互,内置会话管理与网页控制台,使用 SQLite 作为运行时状态存储。

AI与计算

Claude Gemini MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供通过 Gemini 的 AI 能力进行资源管理、工具执行、以及提示模板渲染等功能,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式以为 LLM 客户端提供可扩展的上下文服务。

AI与计算

DJ Claude MCP 服务器

基于 Model Context Protocol(MCP) 的后端实现,提供资源管理、工具注册与执行、Prompt 模板渲染等能力,支持通过标准输出(stdio)和HTTP传输实现多代理协作音乐生成的 JSON-RPC 服务。

AI与计算

Boucle Broca MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,暴露 Boucle 框架中的 Broca 存储和工具执行能力,支持标准 JSON-RPC 通信,当前实现以 stdio 传输为主,便于与 Claude/其他 MCP 客户端进行多智能体协作与上下文共享。

AI与计算

Routa MCP Server

基于 Model Context Protocol (MCP) 的服务器端实现,Routa 提供完整的 MCP 服务端能力,通过 JSON-RPC/Federated 流式通知向 LLM 客户端暴露资源、工具与提示模板,并支持多工作流的代理协同与会话管理。该仓库不仅包含 MCP 服务端核心逻辑,还实现了与 ACP 生态的深度集成与客户端路由接口。

AI与计算

QdrantRAG-DyTopo MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,提供向量检索、工具调用与 DyTopo 多代理路由等能力,旨在为本地离线/私有环境中的大模型客户端通过 MCP 协议以标准化方式获取上下文资源与功能。

AI与计算

AI-Connect MCP 服务器

基于 Model Context Protocol 的多机器协作后端,实现 MCP HTTP 服务器和桥接组件,向大语言模型客户端提供工具调用、消息路由、历史记录等能力,并通过 Bridge Server 实现跨机器通信。

AI与计算

GlassBox AI MCP 服务器

基于 Model Context Protocol (MCP) 的多代理信任与辩论后端实现,提供资源管理、工具执行与提示渲染等能力,支持与 MCP 客户端通过 JSON-RPC 进行交互。

AI与计算

Agent Chatroom MCP Server

一个基于 Model Context Protocol (MCP) 的后端服务,提供多代理协作聊天与协调工具,通过 MCP 接口暴露 chatroom_join、chatroom_broadcast、chatroom_check、chatroom_ask、chatroom_leave 等工具,并通过 WebSocket 实时路由消息给 Claude Code 客户端。

AI与计算

AI Agent Kit MCP Server

基于 Model Context Protocol (MCP) 的通用后端服务,实现向 LLM 客户端暴露 Agents、Chains、Scaffolds 等资源和工具,支持通过 MCP 协议进行资源读取、工具调用与提示模板渲染等核心功能,采用标准化的 JSON-RPC 风格通信与多传输能力(当前以 STDIO 作为传输实现),用于为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

Agents Council MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,支持多代理协同的会话管理、工具执行和提示渲染,面向 LLM 客户端提供标准化的上下文服务。

AI与计算

Agents Council MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板的管理与执行,并通过 JSON-RPC 与客户端进行通信,支持本地化持久化与多代理会话协作。该仓库包含完整的服务端实现代码,而非仅为示例。

开发者工具

Codesearch MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现。该服务器托管并管理资源、注册并执行工具、定义并渲染 prompts,通过 MCP 协议与客户端进行 JSON-RPC 通信,支持将多代理代码搜索能力整合为一个可扩展的后端服务(当前实现以标准输入传输(stdio)为主,未来可扩展到 SSE/WebSocket 等传输方式)。

AI与计算

Synapse MCP 服务器

基于 Model Context Protocol 的后端服务器,提供任务资源、工具调用和提示模板等上下文服务,通过 JSON-RPC 2.0 与 AI 客户端(如 Claude Code)进行交互,实现多代理协作的上下文管理与执行能力。

AI与计算

NSSA AI Agent Platform - MCP Server 集合

基于 Model Context Protocol(MCP)的企业级 MCP 服务器实现,提供网络诊断与知识检索等工具的服务端能力,并与图谱编排、工具网关、审计日志等模块协同工作,支持多服务器架构和标准化的 JSON-RPC 交互。

AI与计算

OpenAgents MCP服务器

一个开源的AI代理网络平台,提供MCP服务器功能让LLM客户端能够访问网络中的资源、工具和提示模板。

开发者工具

Agent Hive MCP服务器

为AI代理提供项目管理和协调功能的MCP服务器,支持项目列表、任务分配、依赖跟踪等操作