返回首页

"多模型协作" 标签

6 个结果

标签搜索结果

AI与计算

Auto Claude MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/上下文管理、工具注册与调用、以及 Prompts 的定义与渲染,支持多 provider 的上下文桥接与 mesh/循环任务执行,采用 JSON-RPC 通过标准传输(如标准输入/输出)与 MCP 客户端通信。

AI与计算

MCP Rubber Duck 服务器端

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 与客户端进行交互,支持多种传输协议、会话管理、能力声明以及外部桥接等扩展能力,用于为大语言模型应用提供可扩展的上下文服务框架。

AI与计算

Kaizen Health Sentinel MCP 服务器

基于 Model Context Protocol (MCP) 的 JSON-RPC 服务器实现,提供健康监控、健康态势证据 attestations、全局与回声脉冲等工具与资源接口,供 LLM 客户端通过 MCP 协议读取资源、执行工具、获取健康信息并提交证据。

AI与计算

Claude Power Pack MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端服务器集合,提供多模型协同的代码评审与开发辅助能力、浏览器自动化、以及分布式协调锁等服务,通过 SSE/HTTP 等传输方式对接 MCP 客户端,形成完整的后端上下文与工具提供框架。

AI与计算

Hybrid-CLI-Agent MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现将 Gemini CLI 与 Claude Code 集成的多模型上下文服务,提供工具、资源和 Prompts 的标准化访问与执行能力,并支持会话与成本跟踪等 MCP 功能。

AI与计算

CLI Agent MCP

统一的多模型CLI代理MCP服务器,支持Codex、Gemini、Claude和OpenCode等AI工具