返回首页

"模型管理" 标签

15 个结果

标签搜索结果

AI与计算

SuperNovae MCP 服务器实现

基于 Model Context Protocol 的后端服务器实现,提供资源及工具托管、Prompt 渲染等能力,并通过 JSON-RPC 风格的 MCP 协议在 Unix 域套接字上与客户端进行通信与协作。

AI与计算

OpenSCAD MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行(渲染、导出、分析、模型管理等)以及会话与缓存等能力,方便将 OpenSCAD 的渲染上下文和功能暴露给 LLM 客户端,通过 JSON-RPC 风格的消息进行资源读取、工具调用与模板渲染等交互。

AI与计算

MimikaStudio MCP 服务端实现

MimikaStudio 的 MCP 服务器实现,基于 Model Context Protocol (MCP) 构建的后端服务,向本地或远程的 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具和提示模板的访问与渲染,并通过 HTTP 端口提供 MCP 工具集与监控信息。

AI与计算

SeedVR2 MCP 服务器(Upscaler)

基于 Model Context Protocol (MCP) 的 SeedVR2 视频/图片放大后端,提供 MCP 接口以注册工具并执行图像/视频放大以及查询 GPU 状态等功能,支持通过 JSON-RPC 与 MCP 客户端进行资源与功能调用。

AI与计算

IPFS Accelerate MCP 服务器

一个企业级AI推理加速平台,通过MCP协议向LLM客户端提供硬件加速的机器学习推理能力、模型管理和分布式P2P缓存服务。

AI与计算

MCP (Model Control Protocol) 服务器

基于 Model Context Protocol 构建的模块化服务器,用于管理AI模型、注册工具、提供上下文服务。

AI与计算

HexagonML 模型管理 MCP 服务器

为 HexagonML 模型管理服务提供 MCP 接口,支持模型及用例的增删改查与图表获取。

AI与计算

Ultimate MCP Server

基于 Model Context Protocol (MCP) 的全面服务器,为AI Agent提供丰富的工具、记忆和模型调用能力,增强认知与操作。

AI与计算

macop

一个用于托管、管理和运行大模型的后端服务,支持模型分发、上下文控制和Prompt模板。

AI与计算

Just Prompt

Just Prompt 是一个轻量级的 MCP 服务器,为多种 LLM 提供商提供统一的接口,简化 LLM 应用的开发。

开发者工具

MLflow 自然语言接口 MCP 服务器

通过 MCP 协议将 MLflow 功能以自然语言接口形式暴露,方便 LLM 应用进行机器学习实验和模型管理。

开发者工具

FLUJO

FLUJO是一个开源平台,本地化桥接工作流编排、模型上下文协议(MCP)和AI工具集成,为LLM应用提供安全可扩展的上下文服务框架。

AI与计算

chat

sd_chat是一个MCP服务器,通过聊天界面,支持Stable Diffusion文生图、模型管理和Civitai模型下载安装。

AI与计算

Ollama

Ollama MCP Server 是一个基于 Model Context Protocol 的服务器,它桥接了 Ollama 本地大语言模型和 MCP 客户端应用,提供模型访问和管理能力。

AI与计算

Ollama

MCP Ollama是一个MCP服务器,它将Ollama大语言模型的功能通过Model Context Protocol (MCP) 协议暴露出来,允许MCP客户端(如Claude Desktop)调用Ollama的模型,进行模型列表查询、模型信息查看和模型问答等操作。